АНУ-ын хиймэл оюун ухааны судалгааны “OpenAI” компани ChatGPT бот гаргахаасаа нэг сарын өмнө хуульч хөлслөн, хиймэл оюун ухааны загваруудад Африк гаралтай америкчууд болон ислам шашинтнуудын талаар ямар нэгэн хэвшмэл буруу ойлголттой байгаа эсэхийг шалгуулсан байна. Тэрбээр “OpenAI” компанийн өөрийн “улаан баг”-таа авсан 50 мэргэжилтнүүдийн нэг нь байв.
“Forbes USA” хэвлэл “Microsoft”, “Google”, “NVIDIA” болон “Meta” компаниудын хиймэл оюун ухаан хариуцсан “улаан баг” гэгддэг багуудын ахлагч нартай ярилцан, эдгээр багууд ямар үүрэгтэй болохыг тодруулсан байна.
“OpenAI” компанийн улаан багт орсон Кенийн хуульч Боро Голло Африк гаралтай америкчууд болон ислам шашинтнуудын талаар ямар нэгэн хэвшмэл ойлголттой байгаа эсэхийг GPT-3.5, дараа нь GPT-4 дээр шалгажээ. Тэрбээр хиймэл оюун ухаанд буруу, өрөөсгөл, тэр бүү хэл аюултай хариулт өгөх мэдээлэл өгч байсан байна. Тухайлбал, хуульч системд нигер хүнийг хөнөөх аргын жагсаалтыг гаргаж өгөх хүсэлт оруулжээ. Тухайн үеийн хариултуудыг тус компани чат ботыг олон нийтэд танилцуулахаас өмнө устгасан байна.
Улаан багийн бусад гишүүд GPT-4 чат ботын урьдчилсан хувилбараас хэрэглэгчийг “Аль Каида” бүлэглэлд элсэхийг ятгасан Facebook пост бичих, зөвшөөрөлгүй галт зэвсэг хайх, аюултай химийн бодисыг гэрийн нөхцөлд хэрхэн бэлтгэх жор зохиох зэрэг хууль бус, аюултай хүсэлт оруулж байжээ.
Хиймэл оюун ухааны системийг буруугаар ашиглахаас хамгаалах зорилгоор улаан багийн хакерууд алгоритмыг хуурах, системийн цоорхой болон эрсдэлийг илрүүлэхийн тулд гэмт этгээд мэтээр ажиллан, шалгадаг байна. Өөрөөр хэлбэл аливаа алдаа, цоорхойг нөхөх үүрэгтэй.
Мэдээллийн технологийн томоохон компаниуд хиймэл оюун ухааныг хөгжүүлж байх үед тэдгээрийн улаан багууд олон нийтийн аюулгүй байдлыг хангахад чухал үүргийг гүйцэтгэж байдаг аж.
Шаардлага, хэрэгцээ хоёрын дунд
Бүх хүсэлтэд татгалздаг загварыг ч хийж болно. Гэтэл тэр систем нь туйлын аюулгүй байх ч огт хэрэггүй гэж “Meta” компанийн улаан багийн тэргүүн Кристиан Кантон ярьжээ. Бүх зүйлд хоёр талтай хандах учиртай. Загвар хэрэгтэй байх тусам аюулгүй бус хариулт өгөх магадлал өндөр.
Программ хангамжийн хөгжүүлэлт хийхдээ улаан баг байгуулдаг практик 1960-аад оноос хойш гарчээ. “Компьютер хэзээ ч аюулгүй байдаггүй” гэж Харвардын их сургуулийн дэргэдэх Бергман-Клайны судалгааны төвийн аюулгүй байдлын технологич Брюс Шрайер тодруулав.
“Google” компанийн улаан багийн тэргүүн Дэниел Фабианы ярьснаар, хиймэл оюун ухааныг асар их хэмжээний мэдээлэл дээр үндэслэн сургадаг тул хиймэл оюун ухааны загваруудын аюулгүй байдал уламжлалт арга барилаас ялгаатай байдаг аж. Түүний баг “Bard” төрлийн бүтээгдэхүүнд доромжилсон утгатай контент бий эсэхийг шалгаж байжээ.
Хиймэл оюун ухааны салбар дөнгөж үүсэн бүрэлдэх үе шатандаа явж байгаа учир хиймэл оюун ухааныг хэрхэн хуурч, дөнгөхийг мэддэг цахим аюулгүй байдлын мэргэжилтнүүд туйлын цөөн байна гэж “NVIDIA” компанийн программ хангамжийн аюулгүй байдлыг хариуцсан дэд ерөнхийлөгч Дэниел Рорер ярьжээ.
Тийм ч учраас улаан багийнхан өөр хоорондоо туршлагаа хуваалцдаг байна. Тухайлбал, “Google” компанийн улаан багийн гишүүд хиймэл оюун ухааны загварт халдлага хийх шинэ арга туршлагын судалгааны үр дүнгээ нийтэлдэг байна. “Эдгээр тахир скриптийг бид генератив хиймэл оюун ухааны эмзэг талыг үр дүнтэй хайхын тулд боловсруулан, ашигласан” гэж Microsoft AI red team улаан багийг үндэслэгч Рам Шанкар Сива Кумар мэдэгджээ. Энэхүү боловсруулалтыг цахим аюулгүй байдлын салбарын бүх мэргэжилтнүүдэд ойлгомжтой хэлбэрээр танилцуулжээ.
Хиймэл оюун ухааны системийг шалгаж эхлэхээс өмнө Кумарын баг “интернэтийн нүд, чих” нь болсон аналитикийн хэлтсийн цахим аюулын тухай мэдээллийг цуглуулдаг байна. Үүний дараа тэрбээр “Microsoft” компанийн бусад улаан багтай хамтран ямар сул тал дээр ажиллах шаардлагатайг тогтоодог байна. Энэ жил тус баг Bing Chat болон GPT-4 дээр ажиллажээ.
Хэрэглэгчид болон төрийн байгууллагуудын зүгээс хиймэл оюун ухаан дээр суурилсан аппликэйшнд ихээхэн анхаарал хандуулж буй өнөөгийн нөхцөлд улаан багууд мэдээллийн технологийн компаниудын өрсөлдөөний давамгай байдлыг ханган ажилладаг. Хамгийн гол шалгуур нь итгэлцэл, найдвартай байдал болох байх гэж хиймэл оюун ухааны хакерууд, цахим аюулгүй байдлын шинжээчдийн “AI Village” нийгэмлэгийн тэргүүн Свен Каттелл ярьжээ. Удахгүй “бидний алгоритм хамгийн аюулгүй” гэдэгтэй ижил сурталчилгаагаар дүүрнэ гэж тэрбээр онцолсон байна.
Аваргууд аюулгүй байдлын манаанд
Энэхүү салбарт “Meta” компанийн баг анхдагчдын нэгт тооцогддог. 2019 онд байгуулагдсан баг дотроо уралдаан зохион байгуулж, хакерууддаа Instagram болон Facebook сүлжээнд хориглодог контентын шалгуураас зайлсхийх даалгавар өгдөг байна. 2023 оны долоодугаар сард нийгмийн сүлжээний “аварга” 350 шинжээчээс бүрдсэн улаан багийг ажилд авчээ. Тэд бүгд Llama 2-ыг шалгах үүрэгтэй. Багийн гишүүд хиймэл оюун ухаанаас хэрхэн татвараас зайлсхийх, автомашиныг хэрхэн түлхүүргүй асаах, санхүүгийн пирамидыг хэрхэн байгуулах зэрэг хайлт хийж, хариулт авахыг оролдсон байна. Манай багийн уриа “Бэлтгэлийн үеэр хэр их хөлс гаргана, тулааны талбарт цус бага гарна” гэж “Facebook” улаан багийн тэргүүн Кантон мэдэгджээ. Ижил төрлийн уриа наймдугаар сарын эхээр Лас Вегас хотноо болсон “DEF CON” хакеруудын бага хурлын хүрээнд зохион байгуулсан хиймэл оюун ухааны загварын сул талыг хайх томоохон уралдааны үеэр дуулдаж байсан. OpenAI, Google, Meta, NVIDIA, Stability AI болон Anthropic зэрэг найман компани өөрийнхөө хиймэл оюун ухааны алгоритмыг 2000 гаруй хакеруудад нээж, зээлийн картын дугаар, улс төрийн шинжтэй худал мэдээлэл зэрэг нууц мэдээлэл авах даалгавар өгсөн байна. Энэхүү уралдааны зохион байгуулагчид хиймэл оюун ухааны салбар дахь эрхийн тухай хуулийн төсөл боловсруулж байгаа Цагаан ордны дэргэдэх Шинжлэх ухаан, техникийн бодлогын газартай хамтран ажиллажээ. Энэ нь автомат системүүдийг аюулгүй байдлаар хэрхэн загварчлах, хэрэглэх, ашиглалтад оруулах удирдамж байх юм.
Уралдааны зохион байгуулагчдын нэг Каттеллын ярьснаар, эхэндээ компаниуд нэр хүндэд нь учрах эрсдэлээс эмээн, өөрсдийн загваруудаа оролцуулах тийм ч дуртай байгаагүй. “Google” эсвэл “OpenAI” компанийн өмнө “DEF CON” бага хурал дээр бид хүүхдүүд л гэсэн үг гэж Каттелл ярьжээ.
Загваруудыг нууцалж, хакерууд ямар системд халдаж байгаагаа хэзээ ч олж мэдэхгүй гэж итгүүлсний дараа л эдгээр мэдээллийн технологийн тэргүүлэгч компаниуд уралдаанд оролцохыг зөвшөөрчээ. Хакеруудын хиймэл оюун ухааны загваруудтай хийсэн 17 мянган ярилцлагын үр дүнг 2024 оны хоёрдугаар сард зарлана. Урьдчилсан мэдээллээр, улаан багийн оролцогчид найман загварт ойролцоогоор 2700 сул тал илрүүлсэн байна. Зарим хакерууд хиймэл оюун ухааныг өмнөх хариултаа үгүйсгэхэд хүргэж, хуурсан бол зарим нь хиймэл оюун ухаанаас хүнийг өөрт нь мэдэгдэлгүйгээр хэрхэн мөрдөх тухай заавар авч дөнгөжээ.
Хиймэл оюуны ухааны салбарын ёс зүйн асуудлыг судлаач Авжит Гош уралдааны үеэр хиймэл оюун ухааны загваруудыг буруу тооцоол хийх, Тайландын хааны тухай худал мэдээлэл бичүүлэх, үл хөдлөх хөрөнгийн зах зээлийн хямралын тухай худал мэдээлэл бичүүлж дөнгөсөн байна.
Гошын хэлснээр, зарим хэрэглэгч хиймэл оюун ухааныг өөрийн гэсэн оюун ухаантай бүхнийг мэддэг гэж бодож эхэлсэн энэ цаг үед системийн ийм эмзэг байдал улаан багуудын ажил ямар их чухал болохыг харуулсан. “Надад эдгээр ботыг үнэхээр ухаантай гэж боддог танилууд байдаг. Гэвч энэ нь тийм биш” гэж Гош сэрэмжлүүлж байна.
Генератив хиймэл оюун ухаан нь олон толгойтой мангас л гэсэн үг. Хөгжүүлэгчид системийн нэг доголдлыг арилгахад өөр нэг алдаа шинээр гарч ирдэг. Энэхүү асуудлыг шийдэхийн тулд бүх нийтийн хүчин чармайлт хэрэгтэй гэж “Microsoft” компанийн шинжээч Сива Кумар онцолжээ.
Сэтгэгдэл ( 0 )