Изкуствен интелект от нов тип може да застраши човечеството
- Редактор: Слави Неделчев
- Коментари: 1
Служители на компанията OpenAI са изразили тревога, че разработваният модел Q* може да представлява заплаха за света
На фона на трусовете в ръководството на OpenAI, стана ясно, че създателите на ChatGPT са работели по проект за изкуствен интелект, който сериозно би могъл да застраши човечеството. За това са предупредили в писмо до ръководството на компанията няколко нейни служители.
Новината беше съобщена от Ройтерс, като агенцията се позова на свои източници, но с уточнението, че няма достъп до писмото и нито работещи в OpenAI, нито от ръководството ѝ са коментирали темата, предаде БНТ.
Преди шефът на ОреnАI Сам Алтман да прекара четири дни в изгнание, както го нарича Ройтерс, служители на компанията изразили тревога, че разработван модел може да представлява заплаха за света. Моделът се казва Q* и - както се твърди - е в състояние да реши прости математически задачи, които вижда за първи път. Това е модел, който не работи на статистически принцип, както ChatGPT, а на принципа на правила и логика.
Способността на изкуствения интелект да решава задачи се смята за ключов етап в развитието му, който би довел до появата на така наречения генеративен изкуствен интелект - това е мощна машина, която може да изпълнява широк диапазон от задачи по начин, характерен за човешкия интелект, но на ниво, което значително го надвишава.
Много експерти смятат, че компаниите, разработващи изкуствен интелект, трябва да забавят развитието на тези технологии, докато бъдат изяснени и предотвратени рисковете за човечеството.
През изминалата година след пускането на пазара на ChatGPT, Сам Алтман многократно е предупреждавал на срещи със световни лидери, както и на изслушване пред комисия на американския Сенат за рисковете от развитието на Изкуствения интелект.
"Най-големият ми страх е, ние, технологичната индустрия да не причиним сериозна беда на света. Това би могло да стане по много различни начини. Ако нещо с технологията се обърка, ще се обърка страшно! И ние искаме да говорим открито за това. Искаме да работим с правителството, за да предотвратим подобен развой", заяви главният изпълнителен директор на OpenAI Сам Алтман.
OpenAI уверява, че ще работи за безопасен изкуствен интелект, който да облагодетелства хората. Докато Европейският съюз изработи свой закон за изкуствения интелект, в САЩ все още се води дискусия как и дали да се въведе регулация.
"Цял хор от гласове призовава за регулиране на изкуствения интелект. Но трябва да има известна яснота какво значи това, кои аспекти трябва да регулираме? Кои аспекти са рискови? Дали е унищожаването на работни места? Дали е всяването на предразсъдъци и дискриминацията? Защото за всеки отделен аспект трябва отделен подход на регулация. Много е важно да не размахваме огромен чук, само защото всичко ни прилича на пирон. Важно е да има нюанси, защото иначе регулацията може да не разреши определения проблем", каза проф. Сара Крепс от Корнълски университет.
Според някои анализатори, причината за кадровите сътресения в компанията се дължат на сериозни разногласия по отношение на това с каква скорост и с какви предпазни мерки да се върви напред в развитието на изкуствения интелект.
Докладвай този коментар за нередност
×11g 23g: M6inata