AI image recognition algorithm တစ်ခုက ကြွက်တစ်ကောင်ရဲ့ ရွေ့လျားမှုက brain functional data ကိုသုံးပြီး ရွေ့လျားတာဟုတ်မဟုတ် ခန့်မှန်းနိုင်ပါတယ်။ Kobe University က သုတေသီတွေက ဘယ် input data တွေက brain machine interface နည်းပညာအတွက် သင့်လျော်တယ်ဆိုတာကို ခွဲခြားနိုင်ဖို့ method တစ်ခု ဖန်တီးထားပါသေးတယ်။
brain machine interfaces တွေထုတ်ဖို့အတွက်က brain signals တွေအပြင် signals တွေကနေဖြစ်လာတဲ့ actions တွေကိုနားလည်ဖို့ရာလည်း လိုအပ်ပါတယ်။ ဒီ process ကို neural decoding လို့ ခေါ်ပါတယ်။ ဦးနှောက်ထဲမှာထည့်ထားတဲ့ electrodes တွေသုံးပြီး တိုင်းတာလို့ ရလာတဲ့ brain cells တွေရဲ့ electrical activity တွေကိုသုံးပြီး သုတေသနပြုကြပါတယ်။
တစ်ဖက်မှာလည်း fMRI နဲ့ calcium imaging လိုမျိုး functional imaging technologies တွေက ဦးနှောက်တစ်ခုလုံးကို စောင့်ကြည့်နိုင်ပါတယ်။ calcium imaging က ပိုမြန်ပြီးတော့ spatial resolution လည်း ပိုကောင်းပါတယ်။ neural decoding အတွက်တော့ ဒီ data တွေကို အသုံးပြုလို့မရပါဘူး။
နောက်ထပ် အခက်အခဲတစ်ခုကတော့ noise ဖယ်ရတာမျိုး၊ region of interest ကို identify လုပ်ရတာမျိုးတွေ လိုအပ်တာပဲဖြစ်ပါတယ်။ VR အခြေခံတဲ့ real time imaging နဲ့ motion tracking systems တွေက deep learning နည်းပညာတွေကို ပိုပြီး ကျယ်ကျယ်ပြန့်ပြန့် လေ့လာနိုင်ဖို့ အထောက်အကူဖြစ်စေပါတယ်။ features တွေကို preprocess လုပ်ဖို့နဲ့ pre-specify လုပ်ဖို့ မလိုအပ်တာကြောင့်ပဲဖြစ်ပါတယ်။
spatial pattern နဲ့ temporal pattern အတွက် deep learning algorithm နှစ်ခုကို ပေါင်းစပ်ပြီးတော့ ကြွက်တွေက ပြေးစက်ပေါ်မှာ နားရာကနေ ပြေးတဲ့အထိ cortex film data တစ်ခုလုံးကို ယူ၊ နောက်ပီး AI model မှာ ကြွက်က ပြေးနေလား နားနေလား ခွဲခြားစိတ်ဖြာနိုင်ဖို့အတွက် train ပါတယ်။
PLoS Computational Biology ဂျာနယ်မှာဆိုရင် Kobe University က သုတေသီတွေက သူတို့ရဲ့ model က accuracy 95% ရှိပြီးတော့ noise ဖယ်စရာ မလိုတဲ့အပြင် region of interest ကို pre define လုပ်စရာမလိုဘဲ တိရစ္ဆာန်ရဲ့ အမှန်တကယ် behavioral state နဲ့တင် detect လုပ်လို့ရကြောင်း ဆိုပါတယ်။
အဲ့ဒါအပြင် သူတို့ရဲ့ model က ဒီလို တိကျတဲ့ ခန့်မှန်းချက်တွေရဖို့အတွက်က 0.17 စက္ကန့်စာ data တွေကိုပဲ သုံးထားတယ်လို့ သိရပါတယ်။ နောက်ပြီး တိရစ္ဆာန်မျိုးစိတ် 5 ခုပေါ်မှာအလုပ်ဖြစ်တဲ့အတွက်ကြောင့် မတူညီတဲ့တိရစ္ဆာန်တွေရဲ့ characteristics တွေကိုလည်း ခွဲခြားစိတ်ဖြာနိုင်ပါတယ်။
neuroscientists တွေက image data ရဲ့ဘယ်အစိတ် အပိုင်းတွေက prediction လုပ်တဲ့နေရာမှာအဓိကကျလဲဆိုတာ စမ်းသပ်ဖို့အတွက် image portions တချို့ကို ဖျက်ကြည့်တာမျိုးနဲ့ အဲ့ခြေနေမှာ သူရဲ့ performance ဘယ်လောက်ရှိတယ်ဆိုတာကို လေ့လာခဲ့ကြပါသေးတယ်။ prediction ရဲ့ accuracy ကျလာလေ ဖယ်လိုက်တဲ့ image portion ရဲ့ အရေးပါမှုက ပိုများလေပါပဲ။
Behavioral classification အတွက် အဓိကကျတဲ့ cortical regions တွေကို ခွဲခြားနိုင်တဲ့ စွမ်းရည် ကျွန်တော်တို့ model မှာ ရှိနေတာက အတော်လေးစိတ်လှုပ်ရှားဖို့ကောင်းကြောင်း Ajioka က ဆိုပါတယ်။ ဒီလေ့လာမှုတွေက real-time behavior decoding ရဲ့ brain machine interfaces အတွက် အခြေခံအုတ်မြစ်ပဲ ဖြစ်ပါတယ်။
Reference: AI Predicts Movement from Brain Data by NeuroscienceNews
AMC HACKS