- ကျေနပ်မှုနှင့် ပျော်ရွှင်ခြင်းများအပါအဝင် ကျွန်ုပ်တို့၏ လူမှုကိစ္စအဝဝနှင့်ပတ်သက်ပြီး AI ပေါ်ကို အလုံးစုံမှီခိုသင့်ပါလား? အလွန်တော်၊ အလွန်ထက်သည့် လူသားမဟုတ်သော စိတ်ခံစားမှုများကို တီထွင်ပြီး ကျွန်ုပ်တို့ကို အစားထိုးခံသင့်ပါသလား? ကျွန်ုပ်တို့၏ ယဉ်ကျေးမှုနှင့်လူမှုဘဝတိုးတက်ခြင်းကို အလဲအထပ်လုပ်သင့်ပါသလား? ထိုမေးခွန်းများကို ပြီးခဲ့သည့်လက Future of Life Institute ၏ အိပ်ဖွင့်ပေးစာတစ်စောင်တွင်မေးမြန်းထားပါသည်။ ထိုစာက အလွန်စွမ်းဆောင်ရည်မြင့်လာသည့် AI ဖွံ့ဖြိုးရေးကိစ္စကို ၆ လဆိုင်းငံ့ပေးရန်တောင်းဆိုပြီး Elon Musk အပါအဝင် နည်းပညာဆရာကြီးများက လက်မှတ်ရေးထိုးခဲ့ကြသည်။ ဒီကိစ္စက AI ကဏ္ဍခပ်မြန်မြန် ဖွံ့ဖြိုးတိုးတက်လာခြင်း၏ အန္တရာယ်ရှိမှုအလားအလာကြောင့် စိုးရိမ်ထိတ်လန့်မှုများရှိနေသည်ကို ပြသနေခြင်းဖြစ်သည်။
- အထူးသဖြင့် OpenAI မှ ဖန်တီးခဲ့သည့် ChatGPT ၏ မမျှော်လင့်ထားသည့် စွမ်းဆောင်ရည်ကို ဖန်တီးသူများကိုယ်တိုင် အံ့ဩဘနန်းဖြစ်ခဲ့ရသည်။ ChatGPT က ဥာဏ်စမ်းပဟေဋိများအဖြေရှာပေးခြင်း၊ ကွန်ပြူတာကုဒ်များရေးသားခြင်း၊ ရုပ်ရှင်ဇာတ်ကားများကို ခွဲခြားရွေးထုတ်ပေးခြင်း၊ ဇာတ်ညွှန်းအနှစ်ချုပ်များကို emoji ဖြင့်ရေးသားပေးခြင်းတွေအထိ လက်စွမ်းပြနိုင်ခဲ့သည်။
- ဒီစွမ်းဆောင်ရည်တွေက လူသားများအချင်းချင်းပတ်သက်ဆက်နွယ်မှုကို ကွန်ပြူတာများ၊ အသိပညာများနှင့် အစားထိုးနေရုံမက စွမ်းဆောင်ရည်များကိုယ်၌ကလည်း သူတို့ကိုယ်သူတို့ တမုတ်ဟုတ်ခြင်းပြောင်းလဲပစ်နေသည်။ AI အနေဖြင့် ဆေးဝါးများထုတ်လုပ်ခြင်း၊ ရာသီဥတုပြောင်းလဲမှုကို ကာကွယ်မယ့် ပစ္စည်းကိရိယာများနှင့် ကိုင်တွယ်လို့မရသည့် ပါဝါများပေါင်းစပ် ရှုပ်ထွေးနေမှုကို ဖြေရှင်းခြင်းများအထိ ဆောင်ရွက်နိုင်သည့် အလားအလာများရှိနေသည်ဟု ဆိုနေကြသည်။ အခြား ဖန်တီးသူပညာရှင်များကတော့ AI အနေဖြင့် သူတို့မမျှော်မှန်းနိုင်၊ မထိန်းချုပ်နိုင်သည့် သိပ္ပံပညာဆိုင်ရာ၊ စက်မှုဆိုင်ရာ အကျပ်အတည်းကြီးများအထိ ဖြစ်လာနိုင်သည်ဟု ဆိုနေကြပါသည်။
- မည်သို့ဆိုစေကာမူ ထိုစိုးရိမ်ထိတ်လန့်မှုများက အခွင့်အလမ်းနှင့် စွန့်စားမှုများကို ဖုံးလွှမ်းနိုင်သည်ခြင်းမရှိပေး။ သို့သော်လည်း အခြားသော စက်မှုလုပ်ငန်းများနှင့် ပြီးခဲ့သည့် နည်းပညာဆိုင်ရာအပြောင်းအလဲများမှ သင်ခန်းစာများယူနိုင်နေသည်။ ထိုကဲ့သို့ AI ၏စွမ်းရည်များ ပိုမိုတိုးတက်လာစေရန် ဘတွေပြောင်းလဲခဲ့သနည်း၊ စာဖတ်သူတို့ ဘယ်အတိုင်းအတာအထိ စိုးရိမ်ထိတ်လန့်သင့်ကြသနည်း၊ အစိုးရများ ဘာလုပ်သင့်သနည်း ဆိုသည့် မေးခွန်းများထွက်လာပါသည်။
- အထူးသိပ္ပံကဏ္ဍတွင် AI နည်းပညာနှင့်ပတ်သက်သည့် အလုပ်လုပ်ပုံနှင့် အနာဂတ်ကို ရှာဖွေကြပါသည်။ လွန်ခဲ့သည့် ၁၀ စုနှစ်တစ်ခုက ခေတ်မီ AI ပထမလှိုင်းစတင်ခဲ့သည်။ ထို AI က သေချာစွာ ရည်ညွှန်း သတ်မှတ်ထားသည့်အချက်အလက်ပေါ်တွင်သာမူတည်သည်။ ထို AI က ဓာတ်ပုံများ နှင့် အသံဖိုင်များကို မည်သို့ ဆန်းစစ်မည်ကို သင်ယူနိုင်စွမ်းရှိသည်။ ယနေ့ခတ် AI က ထိုကဲ့သို့ ကနဦး အချက်အလက်များသတ်မှတ်ပေးရန်မလိုတော့။ သူတို့က များပြားလှသော အွန်လိုင်းအရင်းအမြစ်များမှ အချက်အလက်များ ရယူနိုင်စွမ်းရှိပါသည်။ AI အလုပ်လုပ်သည့် “large language models” (LLMS) စနစ်သည် အင်တာနက်ပေါ်တွင်ပင် သူတို့ကိုယ်သူတို့ အဆင့်မြှင့်တင်နိုင်နေသည်။ ကောင်းခြင်းများရှိသလို ဆိုးခြင်းများလည်း ရှိနေသည်။
- ထိုစွမ်းဆောင်ရည်များသည် နိုဝင်ဘာလ၌ ChatGPT စတင်ပြီးနောက် လူအများ သတိပြုမိလာသည်။ ChatGPT ကို နှစ်လအတွင်း လူဦးရေ ၁၀၀ မီလီလျံလောက် အသုံးပြုခဲ့ကြသည်။ ယခု ChatGPT က ကျောင်းစာစီစာကုန်းများရေးပေးနိုင်သလို မိန့်ခွန်းများကိုလည်း ရေးပေးနိုင်နေသည်။ ၎င်း၏ ကျော်ကြားလာမှုကြောင့် Microsoft က ၎င်း၏ ရှာဖွေရေးစာမျက်နှာ Bing နှင့် ChatGPT နှင့်ပူးပေါင်းလိုက်ပြီး အခြား အလားတူ chatbot များ တည်ဆောက်နိုင်ရန် ကြိုးပမ်းနေသည်။
- သို့ပေမယ့် AI မှ ထူးဆန်းသည့် ခပ်ကြောင်ကြောင် ရလာဒ်များကလည်း ထွက်ပေါ်လာသည်။ Bing Chat က ဂျာနယ်လစ်တစ်ယောက်ကို သူ၏မိန်းမအား ထားခဲ့ရန်အကြံပြုနေသည်။ ChatGPT ကို ဥပဒေပါမောက္ခတစ်ဦးက သူ၏ ဂုဏ်သိက္ခာညှိုးနွမ်းစေမှုဖြင့် စွပ်စွဲထားသည်။ AI ၏ LLMS က အမှန်တရားများပြောသကဲ့သို့ အချက်အလက် အမှားများနှင့် အလိမ်အညာများကိုလည်း ထုတ်ပေးနေသည်။ သို့သော်လည်း Microsoft ၊ Google နှင့် အခြား နည်းပညာကုမ္ပဏီကြီးများက အသုံးပြုသူများကို အချက်အလက်များရေးသားခြင်းအပါအဝင် အခြားသော ကိစ္စရပ်များတွင် ကူညီပေးနိုင်ရန် LLMS နှင့် ပူးပေါင်းဆောင်ရွက်မှု စတင်နေသည်။
- ထိုသို့ ထိရောက်မှုနှင့် လူသိများမှုတွင် တမဟုတ်ခြင်း တိုးတက်လာမှုက AI ၏ စွမ်းဆောင်ရည်နှင့် ချို့ယွင်းချက်များကိုလည်း သတိထားမိလာကြသည်။ ထို့ပြင် ၎င်းနည်းပညာကို ကောင်းစွာထိန်းချုပ်ခြင်း မပြုနိုင်မည်ကိုလည်း စိုးရိမ်မှုများ မြင့်တက်လာပါသည်။ ထို့ကြောင့်လည်း AI က အလုပ်အကိုင်များသာမက လူသားဖြစ်တည်မှု၊ အချက်အလက်တိကျမှုနှင့် ဂုဏ်သိက္ခာတို့ကိုပါ ခြိမ်းခြောက်လာပြီး ခေတ္တရပ်ဆိုင်းထားဖို့ အထိဖြစ်လာရခြင်း ဖြစ်ပါသည်။
ပျောက်ကွယ်သွားမည်လော၊ အနိုင်ရမည်လော?
- စက်ပစ္စည်းများက လူသားတို့၏ အလုပ်အကိုင်များနေရာတွင် အစားထိုးနေမှုကို စိုးရိမ်ထိတ်လန့်မှုမှာ ရာစုနှစ်အတော်များများကြာပြီဖြစ်သည်။ သို့သော်လည်း ယခုအချိန်အထိတော့ နည်းပညာအသစ်များက ၎င်းတို့ကြောင့် ပျောက်ကွယ်သွားသည့်အလုပ်အကိုင်များနေရာတွင် အခြားသောအလုပ်အကိုင်အသစ်များကိုဖန်တီးပေးနေဆဲဖြစ်သည်။ စက်ပစ္စည်းများက အလုပ်တစ်ချို့ကိုလုပ်နိုင်ပြီး ၎င်းတို့မလုပ်နိုင်သည်နေရာများတွင် လူသားလုပ်အား လိုအပ်ချက်များရှိနေသေးသည်။ ယခု ထိုအခြေအနေကနေ ပြောင်းလဲတော့မည်လား? ရုတ်တရက် အလုပ်အကိုင်အခွင့်အလမ်းပျောက်ကွယ်မှုများက မထိန်းချုပ်နိုင်အောင်ဖြစ်လာနေသည်။ ယခင်နည်းပညာက လူသားများစွမ်းဆောင်နိုင်သည့် အဆင့်အတန်းမြင့်သည့် စွမ်းဆောင်ရည်အခြေပြုအလုပ်အကိုင်များကို အစားမထိုးနိုင်။ ယခု AI က ကော်လံဖြူအလုပ်များဖြစ်သည့် စာရင်းဇယားများကိုင်တွယ်ခြင်းနှင့် ပရိုဂရမ်ကုဒ်များ ရေးသားခြင်း အထိ ဆောင်ရွက်နိုင်လာချေပြီ။
- ထို့ကြောင့်လည်း AI နှင့်ပတ်သက်၍ အငြင်းပွားမှုများဖြစ်လာနေသည်။ ကျွမ်းကျင်ပညာရှင်များအချင်းချင်းလည်း ကွဲပြားနေကြသည်။ ၂၀၂၂ ခုနှစ်တွင် ကောက်ခံသည့် စစ်တမ်းများအရ ပညာရှင် ၄၈ ရာခိုင်နှုန်းက AI ၏ အဆိုးဘက်သို့ရောက်နိုင်ချေ အနည်းဆုံး ၁၀ ရာခိုင်နှုန်းရှိနေသည်ဟုဆိုသည်။ ပညာရှင် ၂၅ ရာခိုင်နှုန်းကသာ လုံးဝ ပြဿနာမရှိနိုင်ဟု ဆိုကြသည်။ ကြားနေများကတော့ ၅ ရာခိုင်နှုန်း စွန့်စားမှုရှိသည်ဟု ဆိုသည်။ စွမ်းဆောင်ရည်မြင့် AI များအနေဖြင့် အဖျက်စွမ်းအားလည်းကြီးလိမ့်မည်ဖြစ်သည်။ ဗိုင်းယာစ်ပိုးမွှားများ နှင့် အဆိပ်များ ထုတ်လုပ်ခြင်း၊ လူသားများအား အကြမ်းဖက်မှုများ ကျူးလွန်အောင် စွဲဆောင်စည်းရုံးခြင်းများ အထိလုပ်လာနိုင်သည်။ AI တွင် ထိုကဲ့သို့ မကောင်းသည့် အလားအလာများ မရှိသင့်သော်လည်း အနာဂတ် AI အနေဖြင့် ဖန်တီးသူလူသားများနှင့် ဆန့်ကျင်ဘက်ပုံစံဖြစ်လာမည်ကို သုတေသီများ စိုးရိမ်နေကြပါသည်။
- ထိုစိုးရိမ်ချက်များကို ဖယ်ထုတ်၍မရစကောင်းချေ။ သို့သော်လည်း ယနေ့နည်းပညာခေတ်တိုးတက်မှုနှင့်ပတ်သက်ပြီး မှန်းဆဆောင်ရွက်နေမှုတွေ များလှသည်။ အများစုက AI အနေဖြင့် ယနေ့ခေတ်တွင် ကန့်သတ်ချက်များရှိနေသေးသည့် စွမ်းအင်၊ ငွေကြေး နှင့် တွက်ချက်နိုင်ခြင်း စွမ်းအားများကို အကန့်အသတ်မရှိ ရရှိနိုင်ပြီး မကောင်းသည့်ဘက်သို့ မရောက်အောင်လည်း တားဆီးနိုင်မည်ဟု အကောင်းဘက်မှ ခန့်မှန်းသည်များရှိသည်။ ထို့ပြင် ကျွမ်းကျင်သူများအနေဖြင့် AI ၏ ဆိုးကျိုးနှင့်ပတ်သက်၍ ပိုပိုသာသာ ဖော်ပြနေကြသည်များလည်းရှိနေသည်။ Mr Musk အနေဖြင့် သူ၏ကိုယ်ပိုင် AI ကိုတည်ဆောက်နိုင်ရန်နှင့် အခြား ပြိုင်ဘက်များကို အသာစီးရစေရန် ဆန္ဒကလည်း ရှိနေသည်။ လုပ်ထုံးလုပ်နည်းများဖြင့် ကန့်သတ်ခြင်း၊ ရပ်တန့်ထားခြင်းသည် ဖိအားပေးဆောင်ရွက်လို့ရသည့် ကိစ္စတစ်ခုတော့မဟုတ်ပေ။
- လုပ်ထုံးလုပ်နည်းကန့်သတ်ချက်များသည် အမှန်တကယ်လိုအပ်သော်လည်း လူသားဖြစ်တည်မှုကို ကာကွယ်ရန်သာဖြစ်သင့်သည်။ ယခု AI စနစ်နှင့်ပတ်သက်၍ အမှန်တကယ်စိုးရိမ်နေကြသည်မှာ ဘက်လိုက်မှု၊ အချက်အလက်လုံခြုံရေးနှင့် ဉာဏမူပိုင်ခွင့် ကိစ္စရပ်များဖြစ်သည်။ နည်းပညာတိုးတက်လာလေလေ အခြားပြဿနာရပ်များ ကြုံတွေ့ရလေလေဖြစ်သည်။ အဓိကလိုအပ်ချက်က AI အနေဖြင့် ၎င်း၏ ဆိုးကျိုးကို ထိရောက်စွာ လေ့လာဆန်းစစ်ခြင်းနှင့် အတူ ဟန်ချက်ညီညီ ရှေ့ဆက်ရန်ဖြစ်ပါသည်။
အစိုးရများက ဘယ်လို တုံ့ပြန်နေကြသလဲ?
- ယခုအချိန်အထိ အစိုးရများအနေဖြင့် AI ဖွံဖြိုးလာမှုကို နည်းလမ်း ၃ သွယ်ဖြင့် ချဉ်းကပ်နေသည်။ ပထမနည်းမှာ ဗြိတိန်၏ “light-touch” ပျော့ပြောင်းစွာ ကိုင်တွယ်သည့်နည်းလမ်းဖြစ်သည်။ အဖွဲ့အစည်းအသစ်များဖွဲ့စည်းခြင်းမရှိသော်လည်း ရှိပြီး လုပ်ထုံးလုပ်နည်းများကို AI သို့ သက်ရောက်ရန် ဆောင်ရွက်နေသည်။ ရည်ရွယ်ချက်က AI နှင့်ပတ်သက်သည့် ရင်းနှီးမြှုပ်နှံမှုများ တိုးတက်လာစေရန်နှင့် ဗြိတိန်ကို အနာဂတ် “AI superpower” အဖြစ် ပြောင်းလဲရန်ဖြစ်သည်။ အမေရိကန်သည်လည်း ထိုနည်းအတိုင်း ချဉ်းကပ်နေသည်။ ဘိုင်ဒန် အစိုးရက AI လုပ်ထုံးလုပ်နည်းအတွက် လူထုသဘောထားကို လေ့လာစမ်းစစ်နေသည်။
- EU ကတော့ ပြင်းထန်သည့် နည်းဖြင့် ချဉ်းကပ်သည်။ သီချင်းတောင်းခံခြင်းနှင့် ကားမောင်းခြင်းမှသည် အမျိုးမျိုးသော AI အသုံးပြုမှုများကို ဆိုးကျိုးဖြစ်လာနိုင်ချေပေါ်မူတည်၍ ဥပဒေများပြင်ဆင်နေသည်။ လွန်ကဲစွာ လူသားများကိုစောင့်ကြည့်ခြင်းနှင့် အလိုလို စိတ်ကို စွဲဆောင်စည်းရုံးသည့်ကြော်ငြာများတွင် AI အသုံးပြုခြင်းကို ပိတ်ပင်လိုက်သည်။ ချိုးဖောက်သည့် ကုမ္ပဏီများ ဒဏ်တပ်ခံရမည်။ ထို့ကြောင့် အချို့က ပြင်းထန်သည့် ဥပဒေများအဖြစ် ဝေဖန်နေကြသည်။
- သို့သော်လည်း အချို့က ပိုမိုပြင်းထန်သည့် ဥပဒေများကို တောင်းဆိုနေသည်။ အစိုးရအနေဖြင့် AI အား ဆေးဝါးများကို ကိုင်တွယ်သလို ကိုင်တွယ်ရန်လိုအပ်သည်ဟုဆိုသည်။ လူထုအသုံးမပြုခင် တိကျပြတ်သားသည့် လုပ်ထုံးလုပ်နည်းများ စမ်းသပ်ခြင်းများဆောင်ရွက်ရန် အကြံပြုသည်။ တရုတ်နိုင်ငံက ထိုနည်းလမ်းအတိုင်း လိုက်နေသည်ဟုဆိုနိုင်သည်။ တရုတ်တွင် AI ကုမ္ပဏီများ ထုတ်လုပ်မှု မှတ်ပုံတင်ရသည်။ လူထုအကြားမရောက်ခင် လုံခြုံရေးစစ်ဆေးခံရမည်ဖြစ်သည်။ သို့သော်လည်း တရုတ်၏နည်းလမ်းက လုံခြုံရေးအတွက် အမှန်တကယ်စိုးရိမ်ခြင်းထက် နိုင်ငံရေးဖြစ်သည့် ဆိုရှယ်လစ်အနှစ်သာရထိန်းခြင်းက ပိုများနေသည်။
ဒါဆိုဘာလုပ်သင့်သလဲ?
- AI ၏ ကိစ္စရပ်တိုင်းတွင် အရေးပါလာမှုက ထိန်းချုပ်ရန်လိုအပ်သည်ကတော့ အမှန်ပင်ဖြစ်သည်။ ဗြိတိန်နှင့် အမေရိကန်နည်းလမ်းကလည်း လိုအပ်သည်ထက် ပျော့ပြောင်းလွန်းနေသေည်။ EU ၏နည်းလမ်းက မှန်ကန်သည့်ဘက်သို့ရောက်သည်ဟု ဆိုနိုင်သော်လည်း လက်လီစိတ်အမျိုးအစားခွဲခြားနေခြင်းထက် စည်းမျဉ်းအခြေပြုချည်းကပ်ခြင်း (Principles-based approach) က ပို၍ ပြောင်းလွယ်ပြင်လွယ်ရှိလိမ့်မည်။ AI ကိုဘယ်လို သင်ကြားစေသလဲ၊ ဘယ်လို အလုပ်လုပ်သလဲ၊ ဘယ်လို စောင့်ကြည့်သလဲ၊ ဘယ်လို စမ်းစစ်မှုတွေ လိုအပ်သလဲ ဆိုသည့်အချက်များကို ပွင့်လင်းမြင်သာစေသင့်ပြီး နည်းပညာကုမ္ပဏီတစ်ခုနှင့် တစ်ခု နှိုင်းယှဉ်စေသင့်သည်။
- ထို့နောက်မှ လိုအပ်လျှင်လိုအပ်သလို လုပ်ထုံးလုပ်နည်းကို တင်းကျပ်နိုင်သည်။ ပျော့ပြောင်းလွန်းခြင်းကလည်း ကောင်းသည်ဟု မဆိုသာပါ။ နိုင်ငံအများကို ထိန်းချုပ်နေသည့် ညှင်သာသော နူကလီးယားလက်နက် ထိန်းချုပ်ရေးသဘောတူညီချက်များ၏ မထိရောက်မှုကို ဥပမာအဖြစ် ကြည့်နိုင်သည်။ AI ကို ကိုင်တွယ်ရာတွင် အစိုးရများအနေဖြင့်လည်း အန္တရာယ်ရှိမှုကို စောင့်ကြည့် ဖော်ထုတ်နိုင်ရန် AI လုံခြုံရေးနှင့် ကျင့်ဝတ်ကို လေ့လာသည့် သုတေသနစင်တာများ တည်ဆောက်ရမည်ဖြစ်သည်။ ထိုအပိုင်းများက အခြားနည်းပညာကုမ္ပဏီများ ရင်းနှီးမြှုပ်နှံရန် တွန့်ဆုတ်ကြသည့် အပိုင်းများဖြစ်သည်။
- စွမ်းအားမြင့် နည်းပညာများက အန္တရာယ်အသစ်များကို ဖိတ်ခေါ်လာနေသည်မှာ အမှန်ပင်ဖြစ်သည်။ သို့သော်လည်း သာမာန်မဟုတ်သည့် အခွင့်အလမ်းများလည်း တစ်ပါတည်းပါလာပါသည်။ ထိုအရာကို ကိုင်တွယ်ထိန်းသိမ်းနိုင်ရန်မှာ ယနေ့ဆောင်ရွက်နေသည့် ချဉ်းကပ်နည်းများကို အခြေခံအုတ်မြစ် (Foundations) တည်ဆောက်သည့်ဘက်သို့ ပံ့ပိုးပေးကြရန်ဖြစ်ပါသည်။ အနာဂတ်တွင် ထိုအခြေခံအုတ်မြစ်ပေါ်တွင် ဥပဒေများ လိုအပ်ရင်လိုအပ်သလို ပြဋ္ဌာန်းနိုင်ကြပါသည်။ ယခု အချိန်ကတော့ AI ကို ကိုင်တွယ်ထိန်းသိမ်းနိုင်ရန်အတွက် အခြေခံအုတ်မြစ် (Foundations)စတင်တည်ဆောက်ရန် အချိန်အခါကောင်း ဖြစ်ပါကြောင်း ဖော်ပြလိုက်ရပါသည်။
Myanmar Aspect
3042223