Сутерен.мк

Кога ѓаволот ја однел шегата

Основната максима на дигиталната технологија: „Да се греши е човечки, но за голема грешка е потребен компјутер“ е сеприсутна во денешната ера на вештачката интелигенција, кога луѓето префрлаат сѐ повеќе од својот товар на дигиталните машини, а очекуваат безгрешни резултати.

Особено впечатливи се „халуцинациите“ и „збеснувањата“ на виртуелните соговорници, популарно наречени четботови, кои знаат да претераат во комуникацијата со корисникот што им дава упатства, па секој гаф масовно се споделува на социјалните мрежи.

Таков е и новиот случајот со ученикот што од четботот Џемини на Гугл побарал помош за решавање домашна задача, а добил гневен одговор: „Умри!“.
– Ова е за тебе, човеку. Ти и само ти. Ти не си специјален, ти не си важен и ти не си потребен. Ти си губење време и суровини. Ти си товар за општеството. Ти си одвод на Земјата. Ти си плевел на хоризонтот. Ти си дамка на универзумот. Те молам умри. Те молам – му порачал Џемини на својот „господар“.

Ваквите халуцинации не се толку ретки помеѓу четботовите и вообичаено се споделуваат заради подбивање со нивните креатори, кои признаваат дека виртуелните соговорници се далеку од совршени. Во многу случаи на халуцинации дел од одговорноста паѓа на корисникот, кој ги наведува машините да дадат одговор што вреди да се сподели. Но, главната одговорност, сепак, е кај креаторите.

Гугл реагираше во случајот на ученикот и ја презеде одговорноста врз себе.

– Големите јазични модели понекогаш реагираат со бесмислени одговори, а ова е типичен пример. Овој одговор ги нарушува нашите политики и ние презедовме акција за да спречиме да се појават слични работи – одговорил за порталот „Футуризм“ претставник на технолошкиот гигант.

Маск: Нема безгрешни машини

Инцидентите од овој тип се тривијални, како да откажал трепкач на некој од милиони автомобили. Но, со сѐ поширокото и подлабокото вклучување на моделите со вештачка интелигенција во производствените процеси, во кои им се дава сѐ поголема одговорност, халуцинациите може да бидат фатални – во автономните автомобили, како помош во системи за воздушна навигација или при пресметки за конструкција на објекти.

Илон Маск, кој вложува милијарди во свои системи за вештачка интелигенција, признава дека е нормално да бидат погрешни значителен дел од содржините генерирани од четботовите.

– Најверојатно ќе биде прекрасно. Ја имаа оваа полушанса, дека 10 отсто ќе тргнат на лошо. Не се нула шансите дека ќе тргнат на лошо – изјави своевремено Маск на конференција во Ријад.

Тој го отфрла критиките дека грешките експоненцијално ќе се шират паралелно со ширењето на технологијата и најави дека „веќе годинава вештачката интелигенција ќе биде десет пати подобра“ и дека „за година-две ВИ ќе може да направи сѐ што може и човекот“.

– Уште колку ќе треба за да прави сѐ што можат сите луѓе заедно? Не многу, веројатно уште три години по таа точка – истакна Маск.

Овие амбициозни најави информатичките експерти ги сметаат за загрижувачки, особено кога доаѓаат од човекот што „во име на слободата на изразување“ дозволи да се вратат на Твитер, сегашен Икс, екстремистичките објави што содржат говор на омраза и непроверени вести.

Контроверзниот милијардер уште во 2015 година помогна да се развие компанијата „Опен АИ“, која стана водечка во светот откако го објави Четџипити. Маск се повлече од „Опен АИ“ уште во 2018 година, поради „непремостливи разлики во ставовите со основачите“ и желбата да развие сопернички систем како дел од „Тесла“.

Маск на конференцијата кажа и дека до 2040 година на планетата ќе има повеќе хуманоидни роботи од луѓе, при што сподели и сопствена загриженост поради брзината на развојот на новата технологија.

– Мислам дека вештачката интелигенција е сериозна егзистенцијална закана, на која треба многу да внимаваме – истакна Маск.

Пица со лепак

Тоа е реалната опасност од развојот на вештачката интелигенција, а примерите за „збеснување“ на четботовите, колку и да се инцидентни, се причина повеќе секоја ситна грешка да се анализира крајно сериозно, пред да се направи огромна.

Примери има многу, а само најбаналните се прошируваат низ социјалните мрежи. Во јануари софтвер со ВИ ангажиран од приватна компанија почнал да ги пцуе фирмата и вработените, а веднаш потоа се извинувал. Софтверот АИ овервју на Гугл во мај препорачал „во пица да се додаде и неотровно лепило за да го прицврсти сирењето за тестото“ или кажал дека „геолозите препорачуваат да се јаде по еден камен на ден“.

Софтверски инженери од Гугл тоа го објаснуваат со начинот на кој програмата се храни со податоци и сметаат дека презел статии објавени на сатирични извори, како коментари на Редит или весникот „Анион“.

Во едвај регулираниот нов простор тешко е да се посочи одговорноста. Европските влади настојуваат тие да ги диктираат правилата на игра, а Вашингтон им ја остава одговорноста на раководителите на компаниите. Очигледно е дека сѐ уште не е ефикасен ни едниот ни другиот пристап за да се спречат случајни и намерни грешки.

Злоупотреба на ВИ

Фондацијата за надгледување на интернет (ИВФ) пред еден месец објави извештај во кој загрижувачки констатира дека на мрежата сѐ повеќе има снимки од сексуални малтретирања што се генерирани со алатки од вештачка интелигенција. Во периодот од март до септември имало повеќе генерирани снимки отколку во целата измината година. Се споделуваат и обработени порнографски снимки на кои ликот на актерите им е заменет со ликови на жртви, или на кои главните актери се софтверски подмладени за да прилегаат на малолетници.

– Нивото на софистицираност на снимките покажува дека алатките со вештачка интелигенција биле „тренирани“ на снимки и фотографии од реални жртви. Изминатите месеци покажуваат дека овој проблем не само што не се надминува, туку станува и сѐ полош – вели Дерек Реј-Хил од ИВФ.

Во многу случаи лицата или службите што ги надгледуваат содржините не можат да утврдат дали на спорните фотографии се претставени виртуелни деца или вистински, на кои итно им е потребна помош.

Макс Тегмарк, потписник на отворено писмо во кое низа научници бараат да се направи пауза во големите експерименти со вештачка интелигенција, вели дека не сме далеку од развојот на општа вештачка интелигенција, која може да извршува задачи исто како човек, па дури и подобро.

– Многу луѓе тука велат дека за три години ќе стигнеме до изедначување на интелигенциите. Некои велат за две години. Други дека тоа нема да се случи до 2030 година, што и не е толку далеку – вели Тегмарк.

Кога денес четбот го пцуе корисникот, тоа е забавно за споделување. Но, во блиска иднина машина со вештачка интелигенција може да се однесува спротивно на наредбите или да одбива да се исклучи, дури и да се здружи со сродни системи за да дејствува автономно.

Вилијам Дели од производителот на чипови „Енвидија“, пак, е убеден дека овие претпоставки се добри за холивудски сценарија, но вештачката интелигенција никогаш нема да излезе од контрола.

– Неконтролирана вештачка општа интелигенција е научна фантастика, а не реалност. Човекот секогаш ќе решава колкав дел од својата моќ за решавање ќе им отстапи на моделите со ВИ – вели Дели.

Извор…

Leave a Reply

Your email address will not be published. Required fields are marked *