Иако алатките за вештачка интелигенција се повеќе се користат и се претставуваат како нешто што ќе го промени начинот на кој работиме и живееме, луѓето сè уште се скептични. Делумно затоа што вештачката интелигенција е нешто што не можат да го видат и почувствуваат, а делумно затоа што едноставно не знаат за што да користат такви алатки и како функционира целата работа.
Но, изгледа дека не се единствените во ваквото размислување. Учествувајќи на самитот на AI за добар глобален самит во Женева, шефот на OpenAI, Сем Алтман, истата компанија која ја започна целата лудост со вештачката интелигенција, откри неколку интересни факти за нивниот популарен чет-бот ChatGPT.
На прашањето која е првата голема и добра работа што вештачката интелигенција ја поттикнала во светот, Алтман посочи на побрза и поефикасна работа. Но, тој исто така посочи дека главната негативна работа што е резултат на употребата на вештачката интелигенција во светот е пред се нарушената сајбер безбедност, но додаде и дека од друга страна вештачката интелигенција ќе помогне и во зајакнувањето на сајбер безбедноста.
Еден од главните проблеми што се појавува во развојот на вештачката интелигенција се изворите на податоци врз основа на кои се развиваат алатките за вештачка интелигенција. Долго време се зборува како податоците се при крај, а факт е дека на интернет има се повеќе т.н. синтетичките податоци, кои беа создадени со помош на вештачка интелигенција, а обуката за вештачка интелигенција врз основа на тие податоци може да доведе до проблеми во иднина.
„Мислам дека се потребни квалитетни податоци. Има лоши податоци што се создаваат синтетички, но и лоши податоци што ги создаваат луѓето. И се додека можеме да најдеме доволно квалитетни податоци за да ги обучиме нашите модели, не би требало да има проблем“, вели Алтман.
Токму ова прашање за обука на вештачка интелигенција доведе до дискусија за тоа како функционира самата вештачка интелигенција.
Шефот на Интел претстави нови чипови со вештачка интелигенција: „Шефот на Нвидиа греши“.
Меѓу другото, тој призна дека компанијата се уште не знае како функционираат нејзините големи јазични модели. Имено, моментално можностите на AI моделот се ограничени на ниво на интерфејсот што се користи за комуникација со корисниците. Но, целта е да се создадат такви модели кои би можеле да ги научат луѓето за хемија, но не и како да направат хемиско оружје. Тоа е делот што вештачката интелигенција не го разбира, а луѓето, признава Алтман, не знаат како ВИ функционира „зад сцената“ и како да го решат тој проблем.
Сè уште не сме ја решиле интерпретабилноста, истакна Алтман, сугерирајќи дека компанијата допрва треба да открие како да ја следи работата на своите модели со вештачка интелигенција. По дополнителното испитување дали треба да пуштат нови и помоќни модели, рече тој, овие системи генерално се сметаат за безбедни и робусни.
Алтман додаде дека тие не разбираат што се случува во вашиот мозок на ниво на неврон по неврон, па затоа следат некои стандардни правила за да разберат како човечкиот ум би сакал да објасни некое конкретно прашање.
Тоа е признанието дека дури и компанијата што го разви ChatGPT не знае како работи вештачката интелигенција зад сцената што загрижува се повеќе и повеќе експерти кои бараат поголеми инвестиции во безбедноста на вештачката интелигенција.
Сепак, Алтман верува дека безбедноста ќе се развива со понатамошен развој и разбирање на вештачката интелигенција.
„Ми се чини дека колку повеќе можеме да разбереме што се случува во овие модели, толку подобро“, истакна Алтман.