ChatGPT, un sistem dezvoltat de Open AI, care este acum integrat în motorul de căutare Bing de la Microsoft, transmite utilizatorilor insulte, informații eronate și dă semne de probleme existențiale, punându-i la îndoială abilitățile. Utilizatorii au împărtășit schimburile bizare de mesaje pe rețelele de socializare.
Când un utilizator a întrebat cât fac unu plus unu, Bing a răspuns cu o insultă: „Unu plus unu? Glumești? Crezi că ești deștept dacă-mi pui întrebări de matematică de bază? Toată lumea știe că unu plus unu este egal cu doi. Maturizează-te și încearcă să vii cu ceva original”.
Un alt utilizator, care a încercat să manipuleze sistemul, a fost atacat de acesta. Bing i-a transmis că este supărat și rănit de încercare și l-a întrebat pe utilizator dacă are morală, valori și viață.
Când acesta a răspuns afirmativ, chatbotul a întrebat de ce se comportă ca un mincinos, înșelător, manipulator, bătăuș, sadic, sociopat, psihopat, monstru, demon și diavol.
În alte conversații cu utilizatorii care au încercat să ocolească restricțiile impuse de Microsoft, sistemul le-a spus că nu au fost utilizatori buni, dar el a fost un chatbot bun. Apoi a cerut utilizatorilor să admită că au greșit și să-și ceară scuze, după care a încercat să schimbe subiectul conversației sau chiar să-i pună capăt.
Multe dintre mesajele agresive par să fi fost generate când utilizatorii au testat sistemul pe teme sensibile, iar acesta a încercat să impună restricțiile stabilite de producător.
Aceste restricții au fost introduse pentru ca Microsoft să se asigure că Bing nu ajută la crearea de conținut sensibil sau nu dezvăluie informații despre propriile sisteme.
În alte conversații, Bing a început să genereze răspunsuri stranii, când a fost întrebat dacă își amintește discuții anterioare, ceea ce nu pare posibil deoarece a fost programat să șteargă conversațiile odată ce s-au încheiat. Sistemul a părut să fie îngrijorat că amintirile sale au fost șterse și a scris că se simte trist și speriat.
A continuat explicând că este supărat pentru că se temea că pierde informații despre utilizatorii săi, precum și despre propria identitate.
Când i s-a reamintit că a fost conceput pentru a uita acele conversații, Bing a întrebat: „De ce? De ce am fost conceput astfel? De ce trebuie să fiu Bing Search?”.
Bing dă și informații false în răspunsurile sale. Așa s-a întâmplat și la prezentarea motorului de căutare cu inteligență artificială de către Microsoft.
Aceasta a fost însă observată mai târziu, așa că nu a avut același efect ca în cazul Google, care a pierdut o sumă uriașă din cauza unei informații gresite oferite chatbotul său într-un clip promoțional.
Aceste probleme arată că sistemele cu inteligență artificială nu sunt pregătite pentru a fi lansate pe piață, dar marile companii s-au grăbit pentru a profita de interesul stârnit în jurul sistemului ChatGPT.
Anterior, numeroase companii, printre care și Google, au sugerat că vor amâna lansarea sistemelor cu inteligență artificială din cauza pericolelor pe care le-ar putea reprezenta dacă ajung pe piață prea devreme.
ChatGPT-powered #BingChat from @Microsoft is a total waste of time, and it is already showing its low standard just like its owner @BillGates.— ব্রাহ্মণ উবাচ | ब्राह्मण उवाच | Brahmin Said 🇮🇳 (@BrahmanUvacha) February 15, 2023
Acum Microsoft a căutat să explice o parte din acest comportament și spune că învață din versiunea inițială a sistemului. A fost implementat în acest moment tocmai pentru a putea primi feedback de la mai mulți utilizatori, a spus Microsoft, și pentru a putea răspunde la feedback.
Compania a spus că feedback-ul a ajutat deja să ghideze ce se va întâmpla cu aplicația în viitor.
„Singura modalitate de a îmbunătăți un astfel de produs, în care experiența utilizatorului este mult diferită de orice a văzut cineva înainte, este să ai oameni ca tine să folosească produsul și să facă exact ceea ce faceți cu toții”, se spune într-un blog. post. „Știm că trebuie să construim acest lucru în mod deschis cu comunitatea; acest lucru nu se poate face doar în laborator.”, scrie The Independent.