Taipei မှာ ကျင်းပသွားတဲ့ 2023 Computex မှာ Nvidia ရဲ့ CEO ဖြစ်သူ Jensen Huang ဟာ gaming နဲ့ AI ပေါင်းစပ်လိုက်ရင် ဘယ်လိုဖြစ်လာနိုင်လဲဆိုတာကို အစမ်းပြသသွားခဲ့ပါတယ်။ video ထဲမှာ အရမ်းမိုက်လွန်းတဲ့ graphic နဲ့ ramen ဆိုင်တစ်ခုကို တွေ့ရမှာဖြစ်ပြီး လူတစ်ယောက်ကို စကားပြောနေရသလို ဆိုင်ပိုင်ရှင်နဲ့ အပြန်အလှန်စကားပြောနိုင်တာကို တွေ့ရမှာပါ။
Dialogue တွေကို screen ပေါ်မှာ ရွေးချယ်နေစရာမလိုပဲ ခလုပ်တစ်ခုနှိပ်ထားပြီး မိမိ ကိုယ်ပိုင်အသံနဲ့ စကားပြောရုံနဲ့ game ထဲက character က မိမိကို ပြန်ပြောတာမျိုး ဖြစ်လာမှာပါ။ ဒါကို Nvidia က အနာဂတ် game တွေရဲ့ အပိုင်းအစလေးလို့ ခေါ်ထားပါတယ်။
GPT-4 တို့ sudowrite တို့ သုံးထားတာမဟုတ်တဲ့အတွက် dialogues တွေကတော့ ထင်ထားသလောက် မကောင်းသေးပါဘူး။ video ထဲက စကားပြောဆိုပုံတွေအရ dialogues တွေကို screen ပေါ်မှာပဲ ရွေးချယ်တာနဲ့တော့ သိပ်မကွာလှပါဘူး။ ဒါပေမယ့် လူတစ်ယောက် ပုံမှန်စကားပြောတာကို Generative AI က သေသေချာချာတုံ့ပြန်တာကို တွေ့ရမှာပါ။ Nvidia ဘက်က ဒီ demo ကိုထုတ်ပေးရင်တော့ ကိုယ်တိုင် စမ်းသပ်ကြည့်ပြီး ဘယ်လိုအဖြေတွေ ထွက်လာနိုင်လဲ တကယ်ရော ကောင်းရဲ့လားဆိုတာ သိလာရမှာပါ။
Nvidia နဲ့ သူ့ partner ဖြစ်တဲ့ Convai ဟာ ဒီ demo ကို သူတို့ ဘာနဲ့လုပ်ထားလဲဆိုတဲ့ tools တွေကို ကြော်ငြာဖို့အတွက် ဖန်တီးထားတာပါ။ ဒီ demo ကို မိမိစက်ထဲမှာရော cloud ပေါ်မှာပါ အသုံးပြုနိုင်တဲ့ Nvidia ACE (Avatar Cloud Engine) for Games ဆိုတဲ့ middleware suite နဲ့ ဖန်တီးထားတာပါ။ ဒီ ACE suite မှာ large language models (LLMs) တွေကို ထည့်သွင်းအသုံးချနိုင်တဲ့ ကုမ္ပဏီရဲ့ NeMo tools တွေ၊ Riva speech-to-text နဲ့ text-to-speech တွေနဲ့ တခြားသော AI နဲ့ပက်သက်တဲ့ tools တွေ အများကြီးပါဝင်ပါတယ်။
ယခု demo မှာ ထို ACE suite တစ်ခုတည်းတော့ သုံးထားတာမဟုတ်ပါဘူး။ graphic အတွက် Unreal Engine 5 ကို အသုံးပြုထားပြီး ray-tracing နည်းပညာများစွာအသုံးပြုထားပြီး တည်ဆောက်ထားတာပါ။ အသက်ရှုမှားလောက်စရာ ပုံရိပ်မြင်ကွင်းတွေကြောင့် chatbot ဆိုတာ အသက်မပါတော့သလိုတောင် ခံစားရစေမှာပါ။ အခုအချိန်မှာတော့ chatbots တွေဟာ သေသေချာချာပြန်ပြောတဲ့ dialogues တွေ၊ ဆင့်ပွားစကားလုံးတွေနဲ့ အသုံးများတဲ့စကားလုံးတွေကို တခါတရံ တွေ့နေရပါပြီ။
Computex ပွဲရဲ့ အစမ်းပြသမှုမှာ Nvidia GeForce ရဲ့ vice president ဖြစ်သူ Jason Paul က ဒီနည်းပညာဟာ တစ်ကြိမ်တည်းမှာ character တစ်ခုထက်မက ပြောလို့ရအောင် မြှင့်တင်နိုင်ပြီး NPC အချင်းချင်းပါ စကားအပြန်အလှန်ပြောလာနိုင်အောင် ပြုလုပ်နိုင်တယ်လို့ ပြောထားပေမယ့် အဲ့လိုမျိုးစမ်းသပ်ထားတာကိုတော့ သူကိုယ်တိုင်မမြင်ရသေးဘူးလို့ ဝန်ခံထားပါတယ်။
Developer တွေက ဒီ ACE toolkit ကို demo မှာ ပြထားသလိုမျိုး အသုံးပြုမယ်ဆိုတာ မသေချာပေမယ့် S.T.A.L.K.E.R. 2 Heart of Chernobyl နဲ့ Fort Solis ကတော့ Nvidia ရဲ့ Omniverse Audio2Face လို့ခေါ်တဲ့ tool ကို အသုံးပြုကြမှာပါ။ ဒီနည်းပညာဟာ အသံသရုပ်ဆောင်တွေရဲ့ စကားအတိုင်း 3D character တွေရဲ့ မျက်နှာအမူအရာတွေကို ပြောင်းလဲသရုပ်ဖော်ပေးနိုင်ပါတယ်။
Reference: “Watch this Nvidia demo and imagine actually speaking to AI game characters” by The Verge