Superintellience AI ကြောင့် လူသားတွေ နေရာပျောက်တော့မှာလား

Premium Content Library

သင်တန်းပေါင်း ၂၀၊ သင်ခန်းစာပေါင်း ၃၀၀ ကျော် ပါဝင်ပြီး နောက်ထပ် ထပ်ဖြည့်မည့် သင်ခန်းစာများပါ ဆက်လက်လေ့လာနိုင်မည်

OpenAI ရဲ့ CEO, chief technology officer နဲ့ lead scientist တို့ဟာ superintellience AI ထုတ်လုပ်မှုနဲ့ ထိန်းချုပ်မှုအပေါ် ရပ်တည်ချက်ကို blog post တစ်ခုနဲ့ ထုတ်ဖော်ပြောကြားလာပါတယ်။

Generative Artificial Intelligence နည်းပညာရဲ့ လက်ရှိဦးဆောင်နေသူလို့ ပြောလို့ရတဲ့ OpenAI ကုမ္ပဏီဟာ superhuman AI အဆင့်ရောက်လာအောင် ကြိုးစားတာထက် ရပ်ပစ်လိုက်တာက ပိုပြီး အန္တရာယ်များတယ်လို့ ဆိုထားပါတယ်။

AI စနစ်တွေရဲ့ လူသားတစ်ယောက်အဆင့်အထိရောက်ရှိလာနိုင်တဲ့ဖြစ်နိုင်ခြေ (Artificial General Intelligence or AGI)၊ OpenAI သတိပေးထားသလိုမျိုး လူသားတွေရဲ့ ကျွမ်းကျင်အဆင့်လုပ်ဆောင်နိုင်စွမ်းတွေထက် ကျော်လွန်တဲ့ဖြစ်နိုင်ခြေဟာ အခုအချိန်ထိ ဝေဖန်ဆွေးနွေးနေကြတုန်းပါပဲ။ ကျွမ်းကျင်ပညာရှင် တော်တော်များများကတော့ လူသားတွေရဲ့ သိမြင်နိုင်စွမ်းကို ကျော်လွန်တာထက် မှီဖို့ဆိုတာတောင် မဖြစ်နိုင်ဘူးလို့ အခိုင်အမာပြောထားကြပါတယ်။

OpenAI ရဲ့ ခေါင်းဆောင်တွေကတော့ မဖြစ်နိုင်ဘူးလို့ ငြင်းဆန်နေတာထက် ဖြစ်လာနိုင်မယ့် အဆိုးဆုံးတွေကို ကြိုတင်ကာကွယ်ထားကြဖို့ ကြိုးပမ်းနေကြပုံပါပဲ။ ဒါပေမယ့် ဒီကိစ္စကို ကြိုတင်ကာကွယ်မယ့်နည်းလမ်းကတော့ ထိန်းချုပ်ထားတာမျိုး မဟုတ်ပါဘူး။

သူတို့ရဲ့ blog post ထဲမှာပြောကြားချက်အရ အစိုးရရဲ့ ကြီးကြပ်မှုကို တိုးမြှင့်ဖို့၊ ဆုံးဖြတ်ချက်ချခြင်းတွေမှာ လူထုပါဝင်စေပြီး လူသိရှင်ကြားလုပ်ဖို့၊ ကုမ္ပဏီတွေနဲ့ ထို AI developers တွေရဲ့ ပူပေါင်းမှုကို ပိုမြှင့်တင်ဖို့ စတာတွေကို အကြံပေးထားပါတယ်။ ဒီအချက်တွေဟာ မကြာသေးခင်က OpenAI CEO ဖြစ်သူ Altman ရဲ့ ဆီးနိတ်လွှတ်တော်ကြားနာမှုမှာ ဖြေကြားသွားတဲ့ အဖြေတွေအတိုင်းပါပဲ။

OpenAI အရဆို superintellience ပြုလုပ်တီထွင်ခြင်းကို ရပ်ဖို့ဆိုတာ အန္တရာယ်အရမ်းများပြီး ခက်ခဲ့တယ်လို့ ဆိုထားပါတယ်။ ဒါကြောင့် အမှားမရှိအောင် သေသေချာချာလုပ်ကိုင်ရမယ်လို့ blog post ထဲမှာ ပြောကြားသွားခဲ့တာပါ။ superintellient AI ထုတ်လုပ်မှာကို ရပ်တန့်နိုင်ဖို့ဆိုရင် တကမ္ဘာလုံးစောင့်ကြည့်ထိန်းချုပ်ရေးစနစ်တွေ လိုအပ်မှာဖြစ်ပြီး ထိုအတိုင်းလုပ်နိုင်ရင်တောင် တားနိုင်ဖို့ဆိုတာ မသေချာပါဘူးလို့ ဆိုထားကြပါတယ်။

ထို blog post အရ မှတ်ချက်ကောက်ရရင် လူသားတွေကို superintellient AI ကနေ ကာကွယ်ပေးနိုင်ဖို့အတွက် မရှိမဖြစ်လိုအပ်တဲ့ အထိန်းအချုပ်အခွင့်အာဏာတွေ၊ ထိန်းချုပ်ရေးနည်းလမ်းတွေ ပေါ်ပေါက်လာနိုင်ဖို့အတွက် OpenAI ဟာ superintellient AI ကို မဖြစ်မနေ ဆက်လက်ပြုလုပ်ရလိမ့်မယ် ဆိုတာပါပဲ။

ဒီနည်းပညာတွေနဲ့ သူတို့ရဲ့ တီထွင်ထုတ်လုပ်မှုတွေကို စောင့်ကြပ်ထိန်းချုပ်နိုင်ဖို့နဲ့ ဥပဒေဘောင်သွင်းနိုင်ဖို့ကို တစ်ကမ္ဘာလုံးအတိုင်းအတာနဲ့ ဆွေးနွေးငြင်းခုံနေကြတုန်းမှာ cryptocurrency, Blockchain နဲ့ Web3 Communities တွေဟာလည်း ဒီလို ဥပဒေစည်းမျဉ်းတွေ ထုတ်လုပ်ဖို့ ကြိုးစားရင်းနဲ့ပဲ သောင်တင်နေခဲ့ပါတယ်။

ယခုဆိုရင် AI ဟာ နည်းပညာအခန်းကဏ္ဍပိုင်းတိုင်းမှာ တဖြည်းဖြည်းပျံ့နှံ့ဝင်ရောက်လာနေပါပြီ။ ယခုလို ဝင်ရောက်လာတဲ့ AI ဟာ လူသားတွေနေရာကို အစားထိုးဖို့ မဖြစ်နိုင်သေးပေမယ့် လူသားတစ်‌ယောက်လုပ်ဆောင်နိုင်စွမ်းထက် အဆများစွာသာလွန်ပြီး စက္ကန့်တိုင်းမှာ မနားတမ်းလုပ်ဆောင်နိုင်တဲ့ superintellient AI ပေါ်ပေါက်လာခဲ့ရင် မိမိလုပ်ကိုင်နေတဲ့ လုပ်ငန်းတွေမှာ မိမိကို လိုအပ်ပါတော့မလား။

Reference: “OpenAI warns superhuman AI may arrive within a decade: ‘We have to get it right’ ” by Cointelegraph

Related