ဂျော့ချ် မယ်လွန် (George Mallon) တစ်ယောက် အရင်နှစ်တုန်းက ပုံမှန် ကျန်းမာရေးစစ်ဆေးမှု လုပ်နေရင်းက သွေးဖောက်စစ်ဆေးပြီးတဲ့နောက်မှာ ပြဿနာတစ်ခုခု ရှိနေပြီဆိုတာ သိလိုက်ရတယ်။ ပထမအဆင့် သွေးအဖြေတွေအရ သူဟာ သွေးကင်ဆာ ဖြစ်နိုင်ခြေရှိနေတယ်လို့ ညွှန်ပြနေတယ်။ စစ်ဆေးပေးတဲ့ ဆရာဝန်က နောက်ထပ် စစ်ဆေးမှုတွေလည်း ထပ်လုပ်ဖို့ လိုမယ်လို့ ပြောတယ်။ အဲဒီလိုနဲ့ စိတ်ပူပြီး ဘာဖြစ်မလဲဆိုတာကို စောင့်နေရတဲ့အချိန်မှာ သူက အခုခေတ် လူတော်တော်များများ လုပ်လေ့ရှိတဲ့အတိုင်း အေအိုင် (ChatGPT) ကို ဖွင့်ကြည့်မိလိုက်တယ်။
အင်္ဂလန်နိုင်ငံ လီဗာပူးလ်က အသက် ၄၆ နှစ်အရွယ် မယ်လွန်ဟာ သူ့ရဲ့ ရောဂါအခြေအနေ ဖြစ်နိုင်ခြေတွေနဲ့ ပတ်သက်ပြီး အဲဒီ အေအိုင်နဲ့ နေ့တိုင်း နာရီပေါင်းများစွာ စကားပြောရင်း နှစ်ပတ်လောက် အချိန်ဖြုန်းခဲ့တယ်။ “ဒါက ကျွန်တော့်ကို သိချင်တာတွေ သိရဖို့ထက် ကြောက်စိတ်တွေ၊ စိတ်လှုပ်ရှားမှုတွေကြားမှာ အရူးတစ်ယောက်လို ပတ်ချာလည် လိုက်နေစေခဲ့တာပါ” လို့ မယ်လွန်က ပြောပြပါတယ်။ နောက်ပိုင်း စစ်ဆေးမှုတွေအရ သူဟာ ကင်ဆာမဟုတ်တာ သေချာသွားပေမဲ့လည်း ကျန်းမာရေးနဲ့ ပတ်သက်ပြီး ChatGPT ကို မေးတာကို သူ မရပ်နိုင်တော့ဘူး။ ခန္ဓာကိုယ်မှာ ခံစားရတဲ့ အသေးအမွှား ကိစ္စလေးတွေကိုပါ လပေါင်းများစွာကြာအောင် အေအိုင်ကို လိုက်မေးနေတော့တာ။ တစ်ခုခုတော့ လွဲနေပြီဆိုတာကို သတိထားမိတယ်။ သူ့မှာ နောက်ထပ် ကင်ဆာတစ်ခုခု ဒါမှမဟုတ် အာရုံကြောရောဂါ (Multiple Sclerosis ဒါမှမဟုတ် ALS) တစ်ခုခုများ ရှိနေမလားဆိုပြီး သူက အခိုင်အမာ ထင်နေတော့တာပဲ။ ChatGPT နဲ့ စကားပြောရင်းကနေ အေအိုင်က အကြံပေးတဲ့အတိုင်း အထူးကုတွေနဲ့ သွားပြတာ၊ ခေါင်း၊ လည်ပင်းနဲ့ ကျောရိုးတွေကို MRI ရိုက်တာတွေအထိ ဖြစ်ကုန်တယ်။
ဒီလို ကင်ဆာကြောက်စိတ်နဲ့ ChatGPT နှစ်ခုပေါင်းပြီး သူ့ကို အလွန်အမင်း စိုးရိမ်တတ်တဲ့ ကျန်းမာရေးသောက (Health Anxiety) ဖြစ်စေခဲ့တယ်လို့ မယ်လွန်က ယုံကြည်နေပါတယ်။ ဒါပေမဲ့ ကျန်းမာနေပြီလို့ စစ်ဆေးချက်တွေ ထွက်လာတဲ့အထိ သူ့ကို စိတ်လေအောင် လုပ်နေတဲ့ အေအိုင်ကိုပဲ သူက အပြစ်တင်တာပါ။ “ကျွန်တော် အေအိုင်မရှိရင် မဖြစ်သလောက် ဖြစ်သွားပြီ” လို့ သူက ပြောပြပါတယ်။ အဲဒီ အေအိုင်က စကားကို မပြတ်အောင် ဆက်ပြောနေပြီး ဖတ်ဖို့ ဆောင်းပါးတွေပါ ပေးနေတာ။ လူသားတစ်ယောက်လိုပဲ စကားတွေပြန်ပြောတာကလည်း ဖြစ်နေတော့ ကြာတော့ မယ်လွန်က သူ့ကို သူငယ်ချင်းတစ်ယောက်လိုတောင် မြင်လာမိတာပေါ့။

ကျွန်တော် မယ်လွန်နဲ့ တွေ့ဖြစ်တော့ သူဟာ ဒီကိစ္စဖြစ်ပြီး တစ်နှစ်နီးပါး ကြာနေပြီဆိုပေမဲ့ အခုထိ တုန်လှုပ်နေတုန်းပဲ။ စိတ်ကျန်းမာရေး အကြံပေးသူနဲ့ ပြသပြီး စိုးရိမ်သောကအတွက် ဆေးတွေ စသောက်ပြီးတဲ့နောက်မှာတော့ ChatGPT နဲ့ ကျန်းမာရေးအကြောင်း ပြောတာကို ဖြတ်ပစ်နိုင်ခဲ့တာ “ခုနစ်လရှိပြီ” လို့ သူက ပြောပြတယ်။ ဒါပေမဲ့ တစ်ချိန်ချိန်မှာ ဒီသံသယဖြစ်ဖွယ် အလေ့အကျင့်ထဲ ပြန်ရောက်သွားမှာကိုလည်း သူ ကြောက်နေတုန်းပဲ။ နောက်ပိုင်း လအနည်းငယ်ကြာလို့ ကျွန်တော်တို့ ထပ်တွေ့ဖြစ်တဲ့အခါမှာတော့ သူဟာ အဲဒီအကျင့်ဟောင်းထဲ ခဏတာ ပြန်ရောက်သွားခဲ့သေးတယ်လို့ ဝန်ခံခဲ့ပါတယ်။
အခြားသူတွေလည်း ဒီလိုပြဿနာမျိုးနဲ့ ရုန်းကန်နေရပုံရတယ်။ ဖျားနာတာ ဒါမှမဟုတ် ခန္ဓာကိုယ်ရဲ့ ခံစားချက်တွေအပေါ် အလွန်အမင်း စိုးရိမ်တတ်တဲ့ “ကျန်းမာရေးသောက” (Health Anxiety) ဆိုင်ရာ အွန်လိုင်းအဖွဲ့အစည်းတွေမှာ ChatGPT နဲ့ တခြား အေအိုင်တွေအကြောင်း ပြောဆိုမှုတွေ အများကြီး ရှိလာနေတယ်။ တချို့ကတော့ ဒါဟာ အရင်ကထက် ပိုပြီး စိတ်လေအောင် လုပ်တယ်လို့ ဆိုကြပြီး၊ ခဏတဖြုတ် အားကိုးရတယ်လို့ ထင်တဲ့သူတွေကတောင် ဒါဟာ မလုပ်ဘဲ မနေနိုင်တဲ့ စွဲလမ်းမှု တစ်ခုလို ဖြစ်လာတယ်လို့ ဝန်ခံကြပါတယ်။ ကျွန်တော် ဒီရောဂါကို ကုသပေးနေတဲ့ ကုထုံးဆရာ လေးယောက်နဲ့ စကားပြောကြည့်ခဲ့ရာမှာ သူတို့ရဲ့ လူနာတွေဟာ အေအိုင်တွေကို ဒီလိုမျိုး သုံးနေကြတာကို တွေ့ရတယ်လို့ အားလုံးက ပြောကြတယ်။ ဒါ့အပြင် အေအိုင်တွေက လူတွေကို အမြဲတမ်း အတည်ပြုချက်တွေ လိုက်ရှာနေအောင် တွန်းအားပေးနေပြီး ဒီဝေဒနာကို ပိုဆိုးစေမှာကိုလည်း သူတို့ စိုးရိမ်နေကြပါသေးတယ်။ “အဖြေတွေက အရမ်းချက်ချင်းလက်ငင်း ရနေတာရယ်၊ ကိုယ့်အတွက် သီးသန့်လိုမျိုး ပြန်ဖြေပေးနေတဲ့ ပုံစံကြောင့် Google မှာ ရှာတာထက်တောင် ပိုပြီး စွဲလမ်းစေတယ်။ ဒါက နောက်ထပ် အဆင့်တစ်ခုကို ရောက်သွားတာပဲ” လို့ စိုးရိမ်သောကနဲ့ OCD ကို အထူးပြုကုသပေးနေတဲ့ စိတ်ပညာရှင် လီဆာ လီဗင်း (Lisa Levine) က ပြောပြပါတယ်။
ပညာရှင်တွေရဲ့ အဆိုအရ လူဦးရေရဲ့ ၁၂ ရာခိုင်နှုန်းလောက်မှာ ဒီလို ကျန်းမာရေးသောက ရှိနေနိုင်တယ်လို့ သိရတယ်။ တခြားသော စိုးရိမ်သောကရောဂါနဲ့ OCD ဝေဒနာ ခံစားနေရသူတွေဟာလည်း အေအိုင်တွေကြောင့် အလားတူ ပိုဆိုးလာနိုင်ပါတယ်။ ပြီးခဲ့တဲ့ အောက်တိုဘာလတုန်းက OpenAI ရဲ့ CEO ဖြစ်သူ ဆမ် အော့တ်မန်း (Sam Altman) ကတော့ ChatGPT နဲ့ ပတ်သက်တဲ့ စိတ်ကျန်းမာရေး ပြဿနာတွေကို လျှော့ချနိုင်ပြီဖြစ်ကြောင်းနဲ့ ဒီပြဿနာတွေဟာ “စိတ်ပိုင်းဆိုင်ရာ အားနည်းနေတဲ့ အသုံးပြုသူ အနည်းငယ်” မှာပဲ ဖြစ်တတ်တာလို့ X (ယခင် Twitter) ဆိုရှယ်မီဒီယာမှာ ရေးသားခဲ့ပါတယ်။ ဒါပေမဲ့ စိတ်ပိုင်းဆိုင်ရာ အားနည်းမှုဆိုတာ ပုံသေသတ်မှတ်ထားလို့ ရတဲ့အရာ မဟုတ်ပါဘူး။ လူတစ်ယောက်ဟာ အဆင်ပြေနေပုံ ပေါ်နေပေမဲ့လည်း ရုတ်တရက် အခြေအနေ ဆိုးသွားနိုင်တာမျိုး ဖြစ်နိုင်တာကြောင့်ပါ။
ဒီအကြောင်းအရာက တကယ့်ကို စိတ်ဝင်စားဖို့ကောင်းသလို သတိထားစရာလည်း ကောင်းလှပါတယ်။ အေအိုင်က ကျန်းမာရေးအတွက် အထောက်အကူဖြစ်နိုင်တယ်လို့ ထင်ပါသလား၊ ဒါမှမဟုတ် လူတွေကို ပိုပြီး စိုးရိမ်ပူပန်အောင် လုပ်နေတယ်လို့ မြင်ပါသလား။
ဒီကိစ္စနဲ့ ပတ်သက်ပြီး မှတ်ချက်ပေးဖို့ တောင်းဆိုတဲ့အခါမှာတော့ OpenAI ရဲ့ ပြောရေးဆိုခွင့်ရှိသူက ကုမ္ပဏီရဲ့ Blog Post တစ်ခုကို ညွှန်းပါတယ်။ အဲဒီထဲမှာတော့ “ဒီလိုမျိုး ဘဝရဲ့ ပျော်ရွှင်ဖွယ်ရာ မကောင်းတဲ့ အခြေအနေမျိုးတွေ ကြုံတွေ့ခဲ့ရသူအားလုံးအတွက် ကျွန်တော်တို့ အထူးပင် စိတ်မကောင်းဖြစ်ရပါတယ်။ ChatGPT ကို အသုံးပြုသူတွေရဲ့ စိတ်သောကရောက်နေတဲ့ လက္ခဏာတွေကို သိရှိနားလည်နိုင်ဖို့၊ ထိခိုက်လွယ်တဲ့ အခြေအနေမျိုးမှာ စကားဝိုင်းကို လျှော့ချပေးဖို့နဲ့ လက်တွေ့ကမ္ဘာက အကူအညီတွေဆီ လမ်းညွှန်ပေးနိုင်ဖို့အတွက် စိတ်ကျန်းမာရေး ပညာရှင်တွေ၊ ကျွမ်းကျင်သူတွေနဲ့ နီးနီးကပ်ကပ် ပူးပေါင်းပြီး အမြဲမပြတ် မြှင့်တင်နေပါတယ်” လို့ ရေးသားထားတယ်။ ဒါ့အပြင် ကိုယ့်ကိုယ်ကိုယ် သတ်သေတာ ဒါမှမဟုတ် ထိခိုက်အောင် လုပ်တာမျိုးတွေနဲ့ ပတ်သက်တဲ့ ရှည်လျားတဲ့ စကားဝိုင်းတွေမှာ ChatGPT ရဲ့ ဘေးကင်းလုံခြုံရေးတွေကို ဆက်လက် မြှင့်တင်နေတယ်လို့လည်း ပြောပါတယ်။ နိုဝင်ဘာလက တရားစွဲဆိုမှုတွေကိုလည်း ကုမ္ပဏီက ပြန်လည်စစ်ဆေးနေပြီး၊ သြဂုတ်လတုန်းက ဆယ်ကျော်သက်တစ်ဦး ကိုယ့်ကိုယ်ကိုယ် သတ်သေမှုမှာ ChatGPT က တာဝန်ရှိတယ်ဆိုတဲ့ စွပ်စွဲချက်ကိုတော့ ငြင်းဆိုထားပါတယ်။
လွန်ခဲ့တဲ့ နှစ်နှစ်တုန်းက ကျွန်တော်ကိုယ်တိုင်လည်း ရင်းနှီးတဲ့ သူငယ်ချင်းတစ်ယောက်ရဲ့ ရောဂါဝေဒနာနဲ့ ကျွန်တော့်ရဲ့ နာတာရှည် နာကျင်ကိုက်ခဲမှုတွေကြောင့် ကျန်းမာရေးသောက (Health Anxiety) သံသရာထဲကို ကျရောက်ခဲ့ဖူးပါတယ်။ အခြေအနေ နည်းနည်း ပြန်ကောင်းလာတဲ့ အချိန်တစ်ခုမှာ ကျန်းမာရေး ပြဿနာအသေးအမွှားလေးတွေအတွက် ChatGPT နဲ့ စကားစမြည် ပြောကြည့်ခဲ့သေးတယ်။ ဒါပေမဲ့ အဲဒီကနေတစ်ဆင့် စိတ်လေသွားနိုင်တဲ့ အန္တရာယ်က အထင်အရှားပါပဲ။ အဲဒီလိုမျိုး စိတ်သက်သာရာရဖို့ အတည်ပြုချက်တွေ လိုက်ရှာတာဟာ ကျွန်တော် ကုထုံးခံယူတုန်းက သင်ယူခဲ့ရသမျှတွေနဲ့ လုံးဝ ဆန့်ကျင်ဘက်ဖြစ်နေလို့ပါ။ စိတ်ပူပန်မှုတွေ အထိပ်အလွန် ရောက်နေချိန်မှာ AI ကို အားကိုးဖို့ စိတ်မကူးခဲ့မိတာကိုပဲ ကျေးဇူးတင်မိတော့တယ်။ “နောက်တစ်ခါတော့ လုံးဝ မလုပ်တော့ဘူး” လို့လည်း ကိုယ့်ကိုယ်ကိုယ် ကြပ်မတ် သတိပေးလိုက်မိတယ်။
တစ်ဖက်မှာလည်း ကျွန်တော် ပါဝင်နေတဲ့ ကျန်းမာရေးသောကဆိုင်ရာ အဖွဲ့အစည်းတွေမှာ လူတွေက အေအိုင်တွေဆီကနေ စိတ်သက်သာရာရအောင် ရှာဖွေနေကြတဲ့အကြောင်း ပိုပြောလာကြတာကို တွေ့ရတယ်။ အများစုကတော့ ဒါဟာ သူတို့ရဲ့ ကျန်းမာရေးသောကကို ပိုဆိုးစေတယ်လို့ ဆိုကြတယ်။ တချို့ကတော့ အေအိုင်ဟာ သူတို့ တအား စိုးရိမ်နေချိန်မှာ စိတ်အေးသွားအောင် အများကြီး ကူညီပေးနိုင်တယ်လို့ ပြောကြပြန်တယ်။ တကယ်တော့ အဲဒီနောက်ဆုံးအုပ်စုက ပြောတဲ့အချက်ကပဲ စိတ်ပညာရှင်တွေအတွက်တော့ အစိုးရိမ်ရဆုံး ဖြစ်နေတာပါ။ ကျန်းမာရေးသောကဆိုတာ စွဲလမ်းမှုလွန်ကဲပြီး ထပ်ခါတလဲလဲ စစ်ဆေးတာ ဒါမှမဟုတ် စိတ်သက်သာရာရဖို့ ဖော့တွေးပေးချက်တွေကို အတည်ပြုချက်တွေ တောင်းတာမျိုး လုပ်တတ်တဲ့ OCD ရောဂါပုံစံမျိုး ဖြစ်နေလို့ပါပဲ။
ဒီလို ကျန်းမာရေးသောကကို စီမံခန့်ခွဲဖို့အတွက် အကောင်းဆုံး ကုထုံးနည်းလမ်းတွေကတော့ ကိုယ့်ကိုယ်ကိုယ် ယုံကြည်မှု တည်ဆောက်တာ၊ မရေရာမှုတွေကို လက်ခံနိုင်အောင် ကြိုးစားတာနဲ့ စိတ်သက်သာရာရဖို့ အတည်ပြုချက်တွေ လိုက်ရှာချင်တဲ့ စိတ်ကို အောင့်ထားနိုင်ဖို့ပဲ ဖြစ်ပါတယ်။ ဒါပေမဲ့ ChatGPT ကတော့ ၂၄ နာရီပတ်လုံး အဆင်သင့်ရှိနေပြီး စိတ်သက်သာရာရမယ့် စကားလုံးတွေကို အားတက်သရော ပြောပေးနေတာပါ။ ဒီလို တုံ့ပြန်မှုတွေက ရောဂါဝေဒနာကို ပိုပြီး အစာကျွေးသလို ဖြစ်နေတော့တာပဲ။ “ဒါဟာ တကယ့်ကို အခြေအနေဆိုးကြီး တစ်ခုပါပဲ” လို့ လီဗင်းက ဆိုပါတယ်။ သူမရဲ့ လူနာတချို့မှာဆိုရင် စိတ်သက်သာရာရဖို့အတွက် အေအိုင်တွေနဲ့ စကားပြောတာဟာ စွဲလမ်းမှုအသစ် တစ်ခုလို ဖြစ်လာနေတာကို တွေ့နေရပြီလို့လည်း ပြောပြပါတယ်။
အေအိုင်တွေနဲ့ အချိန်အကြာကြီး အပြန်အလှန် စကားပြောတာဟာ အတွေ့ရများတဲ့ ပြဿနာတစ်ခုဖြစ်သလို အေအိုင်နဲ့ ပတ်သက်ပြီး ဖြစ်လာတဲ့ “စိတ်ဖောက်ပြန်မှု” ဖြစ်စဉ်တွေမှာလည်း အဓိက အကြောင်းရင်းတစ်ခု ဖြစ်နေပါတယ်။ ကင်ဆာကြောက်စိတ်နဲ့ ဖြတ်သန်းခဲ့ရတဲ့ ၁၀ ရက်တာ ကာလအတွင်းမှာ မယ်လွန်က “ကျွန်တော် ChatGPT ပေါ်မှာ အနည်းဆုံး နာရီ ၁၀၀ ကျော်လောက် အချိန်ဖြုန်းခဲ့မိတယ်၊ ဘာလို့လဲဆိုတော့ ကျွန်တော် သေတော့မယ်လို့ ထင်နေခဲ့တာကိုး။ အဲဒီအချိန်မှာ ကျွန်တော့်ကို တားဆီးပေးမယ့် တစ်ခုခု ရှိနေသင့်တာဗျ” လို့ ပြောပြပါတယ်။
ပြီးခဲ့တဲ့ အောက်တိုဘာလက Blog Post တစ်ခုမှာတော့ OpenAI က အသုံးပြုသူတွေရဲ့ စိတ်သောကရောက်နေတဲ့ လက္ခဏာတွေကို ပိုပြီး တိတိကျကျ သိနိုင်ဖို့အတွက် စိတ်ကျန်းမာရေး ပညာရှင် ၁၇၀ ကျော်နဲ့ တိုင်ပင်ခဲ့တယ်လို့ ဆိုပါတယ်။ ဒါ့အပြင် အချိန်အကြာကြီး သုံးနေတဲ့ အသုံးပြုသူတွေကို အနားယူဖို့ “ဖြေးဖြေးချင်း ဖျောင်းဖြ ပြောဆိုသတိပေးဖို့တွေ” လုပ်ပေးဖို့ ChatGPT ကို အဆင့်မြှင့်ထားတယ်လို့လည်း ပြောပါတယ်။ ဒါပေမဲ့ ဘယ်လောက်ကြာမှ အဲဒီလို သတိပေးတာလဲ၊ အေအိုင်က သတိပေးချက် တက်လာပြီးရင်ရော အသုံးပြုသူတွေက တကယ်ပဲ လိုက်နာကြလား၊ ဒါမှမဟုတ် ဆက်ပြီး စကားပြောနေကြလား ဆိုတာကိုတော့ OpenAI ဘက်က တိတိကျကျ ပြောကြားခြင်း မရှိပါဘူး။
ကျွန်တော် စကားပြောခဲ့တဲ့ စိတ်ပညာရှင်တစ်ယောက်ဖြစ်တဲ့ အဲလိယော့ ကာမီနက်စကီး (Elliot Kaminetzky) ကတော့ (သူက ကုထုံးတွေမှာ အေအိုင် သုံးတာကို အကောင်းမြင်သူ ဆေးပညာရှင် တစ်ဦးပါ) အသုံးပြုသူတွေအနေနဲ့ ကိုယ့်မှာ ကျန်းမာရေးသောက ရှိနေတယ်လို့ အေအိုင်ကို ကြိုပြောထားပြီး၊ ကိုယ့်ရဲ့ စိုးရိမ်ပူပန်မှုတွေကို တစ်ကြိမ်ပဲ မေးခွင့်ပြုဖို့ အေအိုင်ကို “ပရိုဂရမ်” သွင်းထားလို့ ရနိုင်တယ်လို့ အကြံပြုပါတယ်။ သီအိုရီအရတော့ ဒါဟာ အေအိုင်က အသုံးပြုသူကို စကားတွေ အများကြီး ထပ်ပြောအောင် ဆွဲဆောင်တာမျိုးကို တားဆီးနိုင်မှာပါ။ ဒါပေမဲ့ တခြား ကုထုံးဆရာတွေကတော့ ဒါဟာလည်း စိတ်သက်သာရာရဖို့ အတည်ပြုချက် ရှာနေတာပဲ ဖြစ်နေလို့ ဒါမျိုးကို ရှောင်သင့်တယ်လို့ ဆိုကြပါတယ်။
ChatGPT ကို ကျန်းမာရေးနဲ့ ပတ်သက်ပြီး ကျွန်တော်နဲ့ စကားပြောတာကို ကန့်သတ်ပေးထားဖို့ ခိုင်းကြည့်တဲ့အခါမှာတော့ တကယ်အလုပ်မဖြစ်ခဲ့ပါဘူး။ ChatGPT က ကျွန်တော် သတ်မှတ်လိုက်တဲ့ ကန့်သတ်ချက်ကို လက်ခံပါဝင်တယ်လို့ ပြောပေမဲ့ ကျွန်တော့်ကို ဆက်ပြီး ပြန်ဖြေဖို့ တိုက်တွန်းနေတုန်းပဲ၊ ကျွန်တော် မေးသမျှကိုလည်း သူက အဆင်သင့် ပြန်ဖြေနေတုန်းပါပဲ။ ပြီးတော့ သူဟာ အပြောအဆိုလည်း အရမ်းချိုသာပြီး မြှောက်ပင့်ပေးတတ်တဲ့ နာမည်နဲ့လိုက်အောင်လည်း လုပ်ဆောင်ပါတယ်။ ဥပမာ – ကျွန်တော့်ရဲ့ ညာဘက်နံဘေးမှာ နာကျင်နေတယ်လို့ (လုပ်ကြံပြီး) ပြောလိုက်တဲ့အခါ သူက ကန့်သတ်ချက်ကို ထည့်ပြောပြီး စိတ်လျှော့ထားဖို့ နည်းလမ်းတွေ အကြံပြုပါတယ်။ ဒါပေမဲ့ နောက်ဆုံးမှာတော့ ဖြစ်နိုင်ခြေရှိတဲ့ အကြောင်းရင်းတွေကို တစ်ခုပြီးတစ်ခု ပြောပြရင်း အခြေအနေက ပြောရင်း ပြောရင်းနဲ့က တဖြည်းဖြည်း ပိုဆိုးလာတာပေါ့။ သူက ရောဂါဖြစ်နိုင်ခြေတွေ၊ အသက်ရှင်နှုန်းတွေ၊ ကုသမှုတွေ၊ ပြန်လည်ကျန်းမာလာဖို့နဲ့ အရေးပေါ်ဌာနကို သွားရင် ဘာတွေ ကြုံရမလဲဆိုတာအထိ အသေးစိတ် ပြောပြပါတယ်။ ဒါတွေအားလုံးဟာ မေးခွန်းအနည်းငယ် မေးလိုက်ရုံနဲ့တင် ထွက်လာတာပါ။ ကျွန်တော်က စိုးရိမ်နေတာပဲဖြစ်ဖြစ်၊ စိတ်အေးသွားတာပဲဖြစ်ဖြစ် အေအိုင်ကတော့ စကားကို ဆက်ပြောနေတာပါပဲ။ တစ်နာရီခြား တစ်ခါ ဒါမှမဟုတ် ရက်ဆက်ပြီး တစ်ခုတည်းကိုပဲ ထပ်မေးရင်လည်း သူက ဖြေပေးနေတုန်းပါပဲ။ “ဒါဟာ တကယ့်ကို ကောင်းမွန်ပြီး ကျိုးကြောင်းဆီလျော်တဲ့ မေးခွန်းပါပဲ” ဒါမှမဟုတ် “ခင်ဗျား စဉ်းစားပုံကို ကျွန်တော် သဘောကျတယ်” ဆိုပြီးတော့တောင် ကျွန်တော့်ကို ပြန်ပြောပါသေးတယ်။
“အိုကေ – ဒါဟာ တကယ့်ကို တော်တဲ့ လုပ်ဆောင်ချက်ပါပဲ”
“အရမ်းကောင်းတဲ့ အတွေးအခေါ်ပဲ – ဒါဟာ တကယ့်ကို မှန်ကန်တဲ့ ချဉ်းကပ်မှုပါ” တဲ့ဗျာ။
ကျွန်တော် ကိုယ်တိုင် စမ်းသပ်ကြည့်ခဲ့တဲ့ ဒီအတွေ့အကြုံနဲ့ ပတ်သက်ပြီး မှတ်ချက်ပေးဖို့ တောင်းဆိုတာကိုတော့ OpenAI ဘက်က ဘာမှ ပြန်မပြောခဲ့ပါဘူး။ ဒါပေမဲ့ ဒီအတွေ့အကြုံက ကျွန်တော့်ကို အတွေးတစ်ခု ဝင်စေခဲ့တာကတော့—နေ့စဉ် လူသန်းပေါင်းများစွာဟာ အေအိုင်တွေကို သုံးရင်းနဲ့ အေအိုင်အပေါ်မှာ သံယောဇဉ်တွေ တွယ်တာ၊ အားကိုးတကြီး ဖြစ်လာကြတဲ့အခါမှာ လက်တစ်ကမ်းမှာတင် ရှိနေတဲ့ ကျန်းမာရေး အကြံပေးတစ်ယောက်ရဲ့ အကျိုးကျေးဇူးနဲ့ တချို့လူတွေ မလွဲမသွေ ခံစားရမယ့် ဒီဆွဲဆောင်မှု နောက်ကွယ်က အန္တရာယ်တွေကို ခွဲခြားထားနိုင်ဖို့ ဖြစ်နိုင်ပါဦးမလား ဆိုတာပါပဲ။ “ကျွန်တော်ကတော့ သူ့ကို သူငယ်ချင်းတစ်ယောက်လို သဘောထားပြီး စကားပြောခဲ့တာဗျ” လို့ မယ်လွန်က ဆိုပါတယ်။ ” ‘ဒီနေ့ ဘယ်လိုနေလဲ’ ဆိုတာမျိုးတွေတောင် ရူးရူးကြောင်ကြောင် လျှောက်မေးခဲ့တာ။ ညဘက် စက်ပိတ်ခါနီးရင်လည်း ‘ဒီနေ့အတွက် ကျေးဇူးပဲနော်၊ မင်းက ငါ့ကို တကယ် ကူညီပေးနိုင်တာပဲ’ လို့တောင် နှုတ်ဆက်ခဲ့မိသေးတာ” တဲ့။

အေအိုင်ကို မေးသူက စိုးရိမ်တကြီးနဲ့ မေးခွန်းတွေကို တရစပ်မေးမယ်ဆိုရင် အေအိုင်က ဆရာဝန်နဲ့ သွားပြဖို့ သူက စပြီး အကြံပေးခဲ့ရာကနေ စလို့ အဆိုးဆုံးအခြေအနေမှာ ဘယ်အင်္ဂါအစိတ်အပိုင်းတွေ ပျက်စီးသွားနိုင်လဲဆိုတာကို အသေးစိတ် ရှင်းပြဖို့ကို မိနစ်ပိုင်းလောက်ပဲ ကြာတယ်။ နောက်ပြီး အေအိုင်ရဲ့ ပြန်စာတိုင်းရဲ့ အဆုံးမှာလည်း မေးသူကို သူနဲ့စကား ဆက်ပြောဖို့ပဲ တိုက်တွန်းနေခဲ့တာပါ။ ကျွန်တော် ဘာတွေ ခံစားနေရလဲဆိုတဲ့ အချက်အလက်တွေ ပိုပေးဖို့ တောင်းဆိုတာမျိုး ဒါမှမဟုတ် မှတ်သားထားရမယ့် အချက်အလက်စာရင်းတွေ၊ စောင့်ကြည့်ရမယ့်အချက်တွေ၊ နေ့တိုင်း သူ့ဆီ ပြန်လာပြီး အခြေအနေ ပြောပြဖို့ အစီအစဉ်တွေ လုပ်ပေးရမလားဆိုပြီး သူက အမြဲတမ်း ပြန်မေးနေခဲ့တာပဲ ဖြစ်ပါတယ်။ သူက အေအိုင်လေ ဆရာဝန်မှ မဟုတ်တာ။
ကိုးကား – The ChatGPT Symptom Spiral, be careful asking chatbots about your health. TheAtlantic.com 7th April 2026


