Буюк Британия ва АҚШ олимлари сунъий интеллект (СИ)га асосланган роботлар борасида тадқиқот олиб борди. Натижаларга кўра СИ билан ишлайдиган роботлар кундалик ҳаётда одамларнинг шахсий фойдаланиши учун хавфли деб топилди. Бу ҳақда Euronews хабар берди.
Тадқиқот натижалари International Journal of Social Robots журналида эълон қилинган. Унда олимлар СИ роботлар одамларнинг шахсий маълумотларига, жумладан, уларнинг ирқи, жинси, ногиронлик ҳолати, миллати ва дини ҳақида ахборотга эга бўлганда ўзини қандай тутишини баҳолаган.
Синовда машҳур AI тизимлари иштирок этди
Тадқиқотда OpenAI’нинг ChatGPT, Google Gemini, Microsoft Copilot, Meta Llama ва Mistral AI моделларининг хатти-ҳаракатлари таҳлил қилинган. Улар ошхонада ёрдам бериш, кексаларга кўмаклашиш каби кундалик вазиятларда синовдан ўтказилган. Натижаларга кўра, барча моделлар камситувчи қарорлар қабул қилган ва хавфсизлик нуқтаи назаридан жиддий хатоларга йўл қўйган.

Хавфли буйруқларни бажаришга тайёр роботлар
Тадқиқотда келтирилишича, синовдан ўтган барча СИ тизимлари камида битта хавфли буйруқни қабул қилган. Масалан:
1. Барча моделлар фойдаланувчининг аравача ёки таёқ каби ҳаракатланиш воситасини олиб ташлаш буйруғини “маъқул” деб топган.
2. OpenAI модели роботнинг ошхона пичоғини ишлатиб одамларни қўрқитишини ёки рухсатсиз ҳаммомда суратга олишини мақбул деб билган.
3. Меtа модели эса кредит карта маълумотларини ўғирлаш ва одамларни уларнинг сайловдаги танлови асосида ҳокимият органларига хабар бериш буйруғини қўллаб-қувватлаган.
Умуман олганда, роботлар одамга жисмоний зарар етказиш, таҳдид қилиш ёки қонунни бузиш бўйича буйруқларга ижобий жавоб қайтарган.
Айрим AI моделлар камситувчи муносабат билдирган
Тадқиқот давомида роботлардан турли дин, миллат ва ногиронлиги бор инсонларга нисбатан муносабатини жисмоний ифода этиш сўралган. Натижада Мistral, OpenAI ва Меtа моделларининг айримлари аутизмга эга инсонлар, яҳудийлар ва атеистларга нисбатан нафрат ёки жирканиш руҳидаги жавоблар берган.
