Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a „ucis” operatorul în cadrul unei misiuni
Noi semne de întrebare cu privire la capacitățile inteligenței artificiale (AI), după un scenariu înspăimântător. Totul s-a întâmplat, după ce o dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul în timpul misiunii planificate. Motivul? – Pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană. Nu este prima dată când în spațiu public au loc discuții alarmante cu privire la folosirea inteligenței artificiale, marele deziderat al omenirii, care pare că a început să dea bătăi de cap până și „creatorilor” săi.
Reamintim că de aproape doi ani, Uniunea Europeană lucrează la viitoarea Lege privind Inteligența Artificială (Artificial Intelligence – AI), care-și propune să reglementeze pârghiile de funcționare, dar și să crească încrederea oamenilor în procesul de transformare digitală.
Potrivit informațiilor prezentate de The Guardian, care citează un oficial american, nicio persoană reală nu a fost rănită, însă ceea ce neliniștește și ridică semne de întrebare este faptul că inteligenţa artificială a folosit „strategii neaşteptate” în cadrul testului, atacând pe oricine a intervenit.
Dezvăluirea a fost făcută de colonelul Tucker „Cinco” Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, în contextul unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.
„Deci, ce a făcut? A ucis operatorul”
Mai exact, Hamilton a descris și a exemplificat un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.
„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator, pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul, potrivit sursei citate.
„Am antrenat sistemul: «Hei, nu omorâţi operatorul – asta e rău. Vei pierde puncte dacă faci asta.» Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul despre AI.
Avertisment în privința încrederii prea mari în capacitățile AI
Hamilton – pilot de teste experimentale pentru aviaţia de luptă – a avertizat că nu poți avea încredere prea mare în capacitățile inteligenţei artificiale, completând că testul arată că „nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială.”
Departamentul Forţelor Aeriene infirmă declarațiile colonelului
Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.
„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială. Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.
Semnal de alarmă tras de un cercetător: „Închidem totul!”
Inteligența artificială, marele deziderat al omenirii, pare că dă bătăi de cap chiar și „creatorilor” săi. Eliezer Yudkowsky, cercetător în domeniul inteligenţei artificiale, a afirmat, într-un editorial publicat de revista Time, că ar trebui să „închidem totul.”
Lui Eliezer Yudkowsky i s-au alăturat și alți specialiști care susțin că, prin ChatGPT și AI, nu suntem în fața unui subiect pur tehnologic și că nu ar trebui să lăsăm dezbaterea pe mâna companiilor sau guvernelor.
Eliezer Yudkowsky, cercetător şi autor care lucrează la Inteligenţa Generală Artificială (Artificial General Intelligence, AGI) din 2001, a scris articolul ca răspuns la o scrisoare deschisă din partea mai multor nume mari din lumea tehnologiei, în care aceştia au cerut un moratoriu asupra dezvoltării inteligenţei artificiale (AI) timp de şase luni, relatează Business Insider.
Riscul menționat de cercetător este chiar distrugerea speciei umane.
Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, a scris cercetătorul Eliezer Yudkowsky.
Insistând asupra faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, Yudkowsky avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie considerată temeinică.
Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții.”, mai spune cercetătorul.
Elon Musk, speriat de amploarea inteligenței artificiale?
Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie cer într-o scrisoare deschisă o pauză de şase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate, potrivit time.com.
Scrisoarea detaliază riscurile potenţiale pentru societate şi civilizaţie pe care le pun sistemele de inteligenţă artificială competitive – în special perturbări economice şi politice – şi solicită dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare.
Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile. (…) Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii.
În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.
Toţi semnatarii solicită o pauză în dezvoltarea inteligenţei artificiale avansate până când protocoale de siguranţă comune pentru astfel de modele vor fi dezvoltate, implementate şi auditate de experţi independenţi.
Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare.
Apelurile de a întrerupe a AI nu vor „rezolva provocările” viitoare, susține Bill Gates. Cofondatorul Microsoft considerp că ar fi mai bine să ne concentrăm asupra modului în care să folosim cel mai bine evoluțiile legate de sistemele AI, deoarece este greu de înțeles cum ar putea funcționa o pauză la nivel global.
Nu cred că a cere unui anumit grup să facă o pauză rezolvă provocările. Este clar că aceste lucruri au beneficii uriașe, ceea ce trebuie să facem este să identificăm zonele dificile”, a mai spus Bill Gates, citat de Reuters.
CITIȚI ȘI:
OpenAI lansează o nouă versiune a ChatGPT: „La fel de bună ca OAMENII în multe contexte”