Сутерен.мк

Што е вештачка општа интелигенција?

Сем Алтман, директорот на американската компанија „Опен-АИ“, што стои зад развојот на големиот јазичен модел Чет-ГПТ, неговиот наследник ГПТ-4 и моделот за правење слики ДАЛЛ-Е, неодамна на блогот на компанијата го објави својот план за развој на Општа вештачка интелигенција (АГИ).

Чет-ГПТ е напреден јазичен модел којшто користи вештачка интелигенција и „длабоко учење“ за да одговара на прашања, да пишува текстови и да разговара со луѓе на начин што е сличен на човечкиот разговор. Тој е обучен за голем обем на податоци, може да комуницира на многу јазици, да пишува есеи на дадени теми, да врши помалку напорно кодирање, да преведува, па дури и да решава одредени училишни задачи и тестови.

Моделот се здоби со огромна популарност за многу кратко време. Веќе првите пет дена по објавувањето лани во ноември имаше повеќе од еден милион корисници, а во јануари ја надмина бројката од 100 милиони.

Во светот на крајот на 2022 година, тоа веќе предизвика голем ентузијазам, беше оценет како потенцијално многу корисна алатка, но предизвика и загриженост дека може да им одземе многу работни места на луѓето, како, на пр. кодирање, пишување текстови, одговарање прашања во услуги за клиенти, пишување поедноставни медиумски вести и изготвување правни документи.

Тоа, исто така почна голем натпревар меѓу конкурентите во развојот и примената на јазичните модели. Гугл, на пример, неодамна го претстави Бард – неговиот чет-бот за вештачка интелигенција којшто работи со сопствен Јазичен модел за апликации за дијалог (ЛаМДА).

ГПТ-4 е подобрена верзија на Чет-ГПТ заснована на ГПТ-3.5. Покрај текстот, може да прифаќа и слики и видеа. Така, на пр. може да препорача различни рецепти врз основа на фотографија од храната што луѓето ја имаат во нивниот фрижидер.

Тој значително се подобри во општите знаења и вештините за решавање проблеми. За илустрација, Опен-АИ тврди дека Чет-ГПТ постигнал резултати во првите 10 отсто од Униформниот правосуден испит на САД (УБЕ), што ги тестира знаењата и вештините што секој адвокат треба да ги има пред да добие лиценца за адвокатура, и ГПТ-4 е меѓу првите 10 отсто.

ДАЛЛ-Е е генеративен модел на вештачка интелигенција којшто користи „длабоко учење“ за да оздаде слики од текст. На пр., ако на тој модел му го дадете текстуалниот опис „направи небо на Марс во стилот на Ван Гог“, тој ќе создаде слика што одговара на тој опис.

ДАЛЛ-Е има потенцијал за апликации во различни области, вклучувајќи дизајн, уметност и архитектура. Во овој контекст, тој би можел да се користи како алатка, но може да стане и замена за луѓето во некои области од овие професии.

Терминот АГИ се однесува на вештачка интелигенција којашто би имала способност да извршува широк опсег задачи слични на оние што ги извршуваат луѓето. Ова би вклучувало способност за учење, прилагодување на нови состојби, препознавање шеми, донесување одлуки, размислување логично и креативно, итн. или решавање на математички задачи.

АГИ генерално се смета за крајна цел во развојот на вештачката интелигенција бидејќи таков систем може да биде исклучително разновиден и корисен за решавање на широк спектар проблеми.
„Иако не можеме да предвидиме што точно ќе се случи и, се разбира, нашиот сегашен напредок може да удри во ѕид, можеме да ги артикулираме принципите за коишто најмногу се грижиме:

1. Сакаме АГИ да го поттикне човештвото да постигне максимален напредок во Вселената. Не очекуваме иднината да биде безусловна утопија, но сакаме да го максимизираме доброто и да го минимизираме лошото, и да се осигураме дека АГИ ќе го овозможи тоа за човештвото.

2. Сакаме придобивките, пристапот и управувањето на АГИ да бидат широко и правично споделени.

3. Сакаме успешно да управуваме со огромните ризици. Соочени со овие ризици, препознаваме дека она што во теорија изгледа правилно е често почудно отколку што се очекуваше во пракса. Веруваме дека мора постојано да учиме и да се прилагодуваме со воведување помалку моќни верзии на технологија за да ги минимизираме сценаријата каде што ни останува само една опција да ги исправиме работите“, пишува Алтман.
Во својата основачка изјава, компанијата објави посветеност на истражување неограничено од „потребата да се генерираат финансиски приноси“, со цел „да се унапреди дигиталната интелигенција на начин што најверојатно ќе има корист за човештвото како целина“.

На нивниот блог тогаш истакнаа: „Бидејќи нашето истражување е ослободено од финансиски обврски, можеме подобро да се сосредоточиме на позитивното влијание врз луѓето“. Исто така, се велеше дека сите истражувачи на компанијата ќе бидат охрабрени да „споделат трудови, објави на блогови или кодови и патенти (ако ги има) со светот“.

Напротив, на почетокот на 2019 година Опен-АИ го напушти својот непрофитен статус и воспостави сектор „ограничен профит“ каде што може да прима инвестиции и да им обезбеди на вложувачите заработка ограничена на 100 пати поголем од вложениот износ. Одлуката на компанијата најверојатно е резултат на желбата на менаџментот да се натпреварува со големите технолошки соперници како Гугл. Кратко потоа, компанијата доби инвестиција од милијарда долари од Мајкрософт. Кон крајот на март 2023 година, Мајкрософт објави дека ќе продолжи да инвестира милијарди повеќе во системи како што се Чет-ГПТ и ДАЛЛ-Е.

Опен-АИ, наводно, создаде нереални очекувања со својата рекламна кампања и слава, односно со надувување на можностите на Чет-ГПТ, со што привлече огромни средства и огромен број корисници.

Дури и самиот Алтман призна кога рече дека ГПТ-4, наследникот на ГПТ-3 моделот, на којшто се заснова Чет-ГПТ, може да заврши како огромно разочарување. Тој рече дека „луѓето молат да бидат разочарани и ќе бидат“ разочарани од претстојниот јазичен модел. – Немаме вистинска (вештачка општа интелигенција), а тоа е нешто што се очекува од нас, предупреди тој.

Следниот проблем е што Чет-ГПТ засега е сѐ уште многу несигурен. Тој создава лажни информации, нуди непостоечки или погрешни извори на информации и/или линкови до нив итн. А, стручњаците велат дека тој има тенденција „да халуцинира“, односно да измислува и нуди содржини кои немаат врска со вистината, па дури и непостоечки или лажни линкови кои треба да поткрепат вакви лажни информации со веродостојни извори и научни студии.

Бинг, кој работи со ГПТ-4, сепак дава подобри резултати. Ако ништо друго, тој ги истакна точните основни информации што може да се најдат. Но, тоа не е нешто посебно за некој што сака посериозно да истражува нечиј лик и дело.

Се поставува прашањето како да се има доверба во моделите кои страдаат од вакви проблеми и ограничувања.

Јан Шнајдер, професор на ФЕР во Загреб, кој се занимава со јазични модели како што е ГПТ, вели дека Чет-ГПТ е добар во генерирање кохезивен текст, којшто е флуиден и ги почитува граматичките и семантичките правила на јазикот.
Шнајдер е меѓу оние кои веруваат дека АГИ можеби ќе мора да биде „невронска“ алатка.

– Тоа можеби е вистина, вели тој. – Ние сме доказ за тоа. Засега немаме докази за друго. Но, патот до АГИ не мора нужно да биде ист како во биолошката еволуција, која оптимизирала различни работи за нашите потреби за преживување во специфични услови, за на крајот да го создаде мозокот што го имаме. Авион често се користи како пример овде. На почетокот се обидувавме да имитираме птици и да мафтаме со нивните криља за да летаме.

Но, се покажа дека тоа можеме да го направиме многу подобро на поинаков начин, со обликување на крилјата, без мавтање. Вештачката интелигенција на крајот ќе стигне до АГИ на еден или друг начин. Овој чекор што го постигна Чет-ГПТ во функцијата за пребарување беше практично очекуван. Не треба да бидеме нетрпеливи. Никој не може да каже кога АГИ ќе биде достапен. Вештачката интелигенција понекогаш е инспирирана од човечките когнитивни способности и нивниот развој, а некогаш и не е, изјави професорот.

Leave a Reply

Your email address will not be published. Required fields are marked *