“Neuralink” компанийг үүсгэн байгуулагч Илон Маск, “Apple” компанийг үүсгэн байгуулагчдын нэг Стив Возняк тэргүүтэй хиймэл оюун ухааны технологи боловсруулах салбарын шилдэг нэг мянга гаруй шинжээч хиймэл оюун ухааны технологийн хөгжилд түр завсарлага авч, асар хүчтэй хиймэл мэдрэлийн сүлжээг сургахыг түр хориглох санал дэвшүүлжээ. Учир нь энэхүү хяналтгүй үйл явц хүн төрөлхтөнд заналхийлэх аюултай гэж тэд үзэж байна. Хиймэл оюун ухааны салбарын шинжээчдийн нээлттэй захидлыг “Future of Life Institute” ашгийн бус байгууллагын сайтад нийтэлжээ.
АНУ-ын “OpenAI” судалгааны лаборатори хамгийн орчин үеийн, одоогоор хамгийн дэвшилтэд “GPT-4” чатботын нарийн мэдээллийг олон нийтэд танилцуулснаас хоёр долоо хоногийн дараа нийтэлсэн захидалдаа хиймэл оюун ухааны салбарын шинжээчид “GPT-4” чатботоос илүү хүчтэй системийг сургах асуудалд хагас жилийн хугацаатай хориг тавихыг санал болгожээ. “Google” компани мөн өөрийн “Bard” чатботыг туршилтын журмаар нээгээд байгаа билээ.
Захидалд “OpenAI” лабораторийг үүсгэн байгуулагч Сэм Альтман өөрийн блогтоо “шинэ системийг сургаж эхлэхээс өмнө хараат бус үнэлгээ хийх нь чухал” болохыг онцлон тэмдэглэснийг эш татан дурджээ. Хараат бус хяналт хиймэл оюун ухааны дэвшилтэт системийг боловсруулахад шаардлагатай ба үүнийг гаднын хараат бус шинжээчид шалган, хянах ёстой хэмээн онцолсон байна.
Шинжээчид Сэм Альтманы энэ саналыг дэмжиж, энэ цаг хугацаа хэдийн ирсэн гэжээ. Хиймэл оюун ухааны хүчтэй системүүдийг, зөвхөн эдгээрийн хэрэглээ эерэг үр дагавартай болох, үүнтэй холбоотой эрсдэлийг удирдаж болно гэж баталсны дараа хөгжүүлэх нь зүйтэй гэж шинжээчид онцолсон байна.
Ямар эрсдэлийн тухай өгүүлэв
Шинжээчид нээлттэй захидалдаа хиймэл оюун ухааны хүчтэй системүүд нийгэм болон соёл иргэншилд бүхэлд нь ямар эрсдэл учруулж болох талаар дэлгэрэнгүй дурдсан байна. Тэдний үзэж буйгаар, хиймэл оюун ухаан дээр суурилсан системүүд хүмүүстэй өрсөлдөж, улмаар эдийн засгийн болон улс төрийн сорилттой тулгарахад хүргэж болзошгүй аж.
Ингэхдээ тэд хүн төрөлхтөн өөртөө дараах дөрвөн чухал асуултыг тавьж үзэхийг хүссэн байна. Тухайлбал:
Аюулгүй байдлын найдвартай дүрэм боловсруулж, нэвтрүүлэхэд зургаан сар хангалттай гэж хиймэл оюун ухааны салбарын шинжээчид үзэж байна. Ингэхдээ тэд засгийн газруудад хандан компаниуд хоригийн шаардлагыг үл хайхарсан тохиолдолд тодорхой арга хэмжээ авахыг уриалсан байна.
Зөвхөн эл захидал бичсэн шинжээчид л хиймэл оюун ухааны хяналтгүй хөгжиж буй явдалд санаа зовниж байгаа бус. Өнгөрсөн даваа гарагт Европын Холбооны “Europol” цагдаагийн алба ChatGPT гэх мэт дэвшилтэд технологи хэрэглэхийн ёс зүйн болон эрх зүйн үр дагаврын сануулж, эдгээр систем нь фишинг халдлагаас авхуулаад цахим гэмт хэрэг үйлдэх, худал мэдээлэл тараах зэрэг цахим луйварт ашиглагдаж болзошгүй хэмээн анхааруулсан.
“Хиймэл оюун ухаан асар их боломжийг нээж, бид бүхэнд илүү сайхан ирээдүйг бүтээхэд жинтэй хувь нэмэр оруулах чадвартай гэдгийг хүн бүр ойлгож байгаа. Гэхдээ бид үүнтэй холбоотой эрсдэлийг мартаж болохгүй. Тиймээс эдгээр системийг дүрэмд захирагддаг болгож, хяналтад авах ёстой” хэмээн хувийн мэдээллийг хамгаалах асуудал хариуцсан шинжээч Ивана Бартолетти ВВС агентлагт өгсөн ярилцлагадаа онцолсон байна. Түүний хэлснээр, итгэлцлийн хөрс суурийг бий болгох шаардлагатай. Ингэснээр хэрэглэгчид машинтай ярьж буйгаа, эдгээр машинууд алддаг болохыг ухамсарлах болно хэмээн Бартолетти ярьжээ.
Хиймэл оюун ухааны технологийг дэмжигчид эдгээр систем нь олон төрлийн өдөр тутмын ажлыг хялбаршуулж, мэдээллийн хайлтыг илүү нарийвчлах боломж олгодог хэмээн үздэг. ChatGPT чатбот нь хэрэглэгчдэд амьд хүнтэй харилцаж буй мэдрэмж төрүүлэхүйцээр хариултаа боловсруулдаг. Эл систем мөн янз бүрийн хэл ярианы стилийг ашиглах чадвартай. Ингэхдээ ChatGPT системийг боловсруулагчид ChatGPT системийн мэдээллийн санг шинэчлээгүй тул 2021 оноос хойш болсон үйл явдлын талаарх ойлголт дутмаг болохыг анхааруулж байна. Түүнээс гадна хиймэл оюун ухаан бодит байдалтай огт холбоогүй, зохиомол хариулт өгч, алдаа гаргасан тохиолдол гарах нь элбэг байдаг аж.
Сэтгэгдэл ( 1 )
Иймэрхүү мэдээлэлд эх сурвалж дурдаж болох уу? Энэ мэдээллийн эх сурвалжийг өгч болох уу?\n