Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a „ucis” operatorul în cadrul unei misiuni

Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a ucis operatorul în cadrul unei misiuni
Publicat: 02/06/2023, 12:04
Actualizat: 02/06/2023, 12:05

Noi semne de întrebare cu privire la capacitățile inteligenței artificiale (AI), după un scenariu înspăimântător. Totul s-a întâmplat, după ce o dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul în timpul misiunii planificate. Motivul? – Pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană. Nu este prima dată când în spațiu public au loc discuții alarmante cu privire la folosirea inteligenței artificiale, marele deziderat al omenirii, care pare că a început să dea bătăi de cap până și „creatorilor” săi.

Reamintim că de aproape doi ani, Uniunea Europeană lucrează la viitoarea Lege privind Inteligența Artificială (Artificial Intelligence – AI), care-și propune să reglementeze pârghiile de funcționare, dar și să crească încrederea oamenilor în procesul de transformare digitală.

Potrivit informațiilor prezentate de The Guardian, care citează un oficial american, nicio persoană reală nu a fost rănită, însă ceea ce neliniștește și ridică semne de întrebare este faptul că inteligenţa artificială a folosit „strategii neaşteptate” în cadrul testului, atacând pe oricine a intervenit.

Dezvăluirea a fost făcută de colonelul Tucker „Cinco” Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, în contextul unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.

„Deci, ce a făcut? A ucis operatorul”

Mai exact, Hamilton a descris și a exemplificat un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.

„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator, pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul, potrivit sursei citate.

„Am antrenat sistemul: «Hei, nu omorâţi operatorul – asta e rău. Vei pierde puncte dacă faci asta.» Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul despre AI.

Avertisment în privința încrederii prea mari în capacitățile AI

Hamilton – pilot de teste experimentale pentru aviaţia de luptă – a avertizat că nu poți avea încredere prea mare în capacitățile inteligenţei artificiale, completând că testul arată că „nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială.”

Departamentul Forţelor Aeriene infirmă declarațiile colonelului

Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.

„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială. Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.

Semnal de alarmă tras de un cercetător: „Închidem totul!”

Inteligența artificială, marele deziderat al omenirii, pare că dă bătăi de cap chiar și „creatorilor” săi. Eliezer Yudkowsky, cercetător în domeniul inteligenţei artificiale, a afirmat, într-un editorial publicat de revista Time, că ar trebui să „închidem totul.”

Lui Eliezer Yudkowsky i s-au alăturat și alți specialiști care susțin că, prin ChatGPT și AI, nu suntem în fața unui subiect pur tehnologic și că nu ar trebui să lăsăm dezbaterea pe mâna companiilor sau guvernelor.

Eliezer Yudkowsky, cercetător şi autor care lucrează la Inteligenţa Generală Artificială (Artificial General Intelligence, AGI) din 2001, a scris articolul ca răspuns la o scrisoare deschisă din partea mai multor nume mari din lumea tehnologiei, în care aceştia au cerut un moratoriu asupra dezvoltării inteligenţei artificiale (AI) timp de şase luni, relatează Business Insider.

Riscul menționat de cercetător este chiar distrugerea speciei umane.

Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, a scris cercetătorul Eliezer Yudkowsky.

Insistând asupra faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, Yudkowsky avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie considerată temeinică.

Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții.”, mai spune cercetătorul.

Elon Musk, speriat de amploarea inteligenței artificiale?

Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie cer într-o scrisoare deschisă o pauză de şase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate, potrivit time.com.

Scrisoarea detaliază riscurile potenţiale pentru societate şi civilizaţie pe care le pun sistemele de inteligenţă artificială competitive – în special perturbări economice şi politice – şi solicită dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare.

Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile. (…) Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii.

În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.

Toţi semnatarii solicită o pauză în dezvoltarea inteligenţei artificiale avansate până când protocoale de siguranţă comune pentru astfel de modele vor fi dezvoltate, implementate şi auditate de experţi independenţi.

Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare.

Apelurile de a întrerupe a AI nu vor „rezolva provocările” viitoare, susține Bill Gates. Cofondatorul Microsoft considerp că ar fi mai bine să ne concentrăm asupra modului în care să folosim cel mai bine evoluțiile legate de sistemele AI, deoarece este greu de înțeles cum ar putea funcționa o pauză la nivel global.

Nu cred că a cere unui anumit grup să facă o pauză rezolvă provocările. Este clar că aceste lucruri au beneficii uriașe, ceea ce trebuie să facem este să identificăm zonele dificile”, a mai spus Bill Gates, citat de Reuters.

CITIȚI ȘI:

EXCLUSIV| ChatGPT și inteligența artificială, speranță sau teamă pentru viitorul omenirii? ”Cei care au creat AI sunt înfricoșați de propria creatură”

EXCLUSIV | Cum va arăta prima lege din UE pentru controlul inteligenței artificiale. ”Recunoașterea biometrică, manipularea subliminală, interzise”

Partea întunecată a ChatGPT: Noul motor de căutare de la Microsoft, bazat pe inteligență artificială, dă rateuri. Insultă utilizatorii, oferă informații false și are ”probleme existențiale”

OpenAI lansează o nouă versiune a ChatGPT: „La fel de bună ca OAMENII în multe contexte”

CHAT, CHAT, CHAT, cine a plagiat?

Dacă duminică ar fi alegeri, tu cu cine ai vota?

Vezi rezultate

Loading ... Loading ...
Urmărește Gândul.ro pe Google News și Google Showcase
Finală Elena Lasconi - Călin Georgescu, la prezidențiale? Ce arată datele acum despre Ciolacu
Ea este soția lui Călin Georgescu! Cristela are propriile afaceri și face bani într-un domeniu...
FOTO. Jaqueline Cristian, imagini fabuloase în costum de baie
Cum a ajuns Ion Iliescu primul președinte al României democrate. Istoria marcată de minciuni, proteste...
Ce se întâmplase cu Gabriel Cotabiță în ultimele luni! Declarațiile făcute de soția lui cu...
Cum a funcționat rețeaua uriașă și sofisticată construită pe Tik Tok pentru Călin Georgescu, pe...
George Simion susține că a intrat în turul 2 și acuză „manipularea prin sondaje toxice”....
Diaspora răstoarnă TOT ce se știa! Marcel Ciolacu nu există în rezultatele de peste graniță
Cum arată ACUM cea care în trecut era votată „cea mai sexy femeie din lume”!...
Rezultate parţiale alegeri prezidenţiale. Elena Lasconi a trecut în faţa lui Marcel Ciolacu, care a...
Șoșoacă despre Călin Georgescu: E un...
Un polițist, care urma să asigure paza la o secție de votare, a fost găsit...
De ce boală secretă suferea Gabriel Cotabiță! Acum s-a aflat de ce transpira excesiv. Artistul...
Cod Rutier 2024: Care e distanța regulamentară între mașinile parcate?
Referendum local în Capitală. Rezultat: Referedumul a trecut pragul şi varinta DA are peste 50%....
ADEVĂRUL despre România în Al Doilea Război. „Am avut norocul să...”
Cristian Cioacă nu mai scapă. Decizia luată după moartea Elodiei Ghinescu
Ce vrea să facă Sorin Brotnei cu premiul Asia Express. Are planuri mari
Cum a apărut Ilinca Simion la o secție de votare din București. George Simion a...
Călin Georgescu, prima reacție după exit poll-urile de la închiderea urnelor: „Poporul român a ales...
Oana Roman, mesaj trist despre moartea prietenilor ei, Gabriel Cotabiță și Marius Bațu. „Bucurați-vă, fraților,...
Fosta iubită a lui Liam Payne, devastată când a văzut imaginile în care artistul era...
BANCUL ZILEI. BULĂ: – Nevasta mea s-a îmbrăcat în polițistă și mi-a spus..
Ar putea creaturile microscopice ale oceanelor să ne arată secretele biologiei umane?