O nouă pandemie provocată de om, mai probabilă din cauza inteligenței artificiale. Ce arată un studiu citat de TIME

0
48

Inteligența artificială este discutată de cele mai multe ori în legătură cu joburile, școala, presa, imaginile false sau automatizarea muncii. Există însă un risc mult mai grav, despre care experții în biosecuritate vorbesc tot mai apăsat: posibilitatea ca modelele AI avansate să ajute persoane rău intenționate să înțeleagă, să optimizeze sau să depășească obstacole tehnice în experimente biologice periculoase. Potrivit revistei TIME, un nou studiu sugerează că riscul unei epidemii sau pandemii provocate de om ar putea crește semnificativ dacă AI-ul ajunge să ofere sfaturi de nivel expert în virologie.

Cercetarea nu spune că o astfel de catastrofă este inevitabilă și nici că AI-ul „creează” singur un virus. Avertismentul este mai nuanțat: instrumentele de inteligență artificială pot coborî bariera de acces la cunoștințe tehnice foarte specializate, iar asta poate deveni periculos dacă ele sunt folosite de oameni fără pregătire, dar cu intenții nocive.

Ce au estimat experții despre riscul biologic

Studiul realizat de Forecasting Research Institute a analizat estimările unor specialiști în biologie, biosecuritate și prognoză privind probabilitatea unei epidemii provocate de om. Experții au estimat un risc anual de bază de aproximativ 0,3% pentru un astfel de eveniment major, capabil să provoace peste 100.000 de decese.

Într-un scenariu în care modelele AI ar putea oferi sfaturi de virologie la nivel uman avansat, riscul estimat de experți ar crește la 1,5% pe an. Cu alte cuvinte, de cinci ori mai mult. Cifra nu trebuie citită ca o predicție exactă, ci ca un semnal de alarmă: specialiștii cred că AI-ul ar putea amplifica riscurile biologice dacă ajunge să ofere ajutor practic în zone foarte sensibile.

Un detaliu important este că cercetătorii au testat apoi modelele AI actuale pe un set de probleme complexe de laborator. Rezultatele indică faptul că unele modele au depășit deja performanța unor virusologi cu doctorat în anumite sarcini de depanare experimentală, ceea ce înseamnă că pragul considerat îngrijorător nu mai este neapărat o ipoteză îndepărtată.

De ce este inteligența artificială un risc, dar și o oportunitate

Riscul vine din faptul că modelele mari de limbaj pot sintetiza rapid informații, pot explica pași tehnici, pot sugera soluții la probleme și pot ajuta utilizatorii să depășească blocaje. În cercetarea medicală legitimă, acest lucru poate accelera descoperirea de tratamente, dezvoltarea vaccinurilor sau înțelegerea bolilor infecțioase.

Aceeași capacitate devine însă periculoasă dacă este folosită pentru a reduce obstacolele din calea unor experimente cu potențial nociv. Un raport publicat de GovAI notează că îngrijorarea nu ține doar de informațiile pe care inteligența artificială le poate furniza, ci și de faptul că poate ghida utilizatorul prin probleme practice care, până recent, cereau experiență reală de laborator.

Separat, testul numit Virology Capabilities Test a fost conceput pentru a evalua cât de bine pot modelele AI să rezolve probleme complexe de virologie. Autorii spun că testul include întrebări construite cu ajutorul unor virusologi și urmărește cunoștințe practice, nu doar informații generale găsite într-un manual.

Ce ar trebui să facă laboratoarele AI

Pentru companiile care dezvoltă modele AI, concluzia este clară: sistemele avansate nu mai pot fi tratate doar ca instrumente de productivitate. Ele trebuie testate și pentru riscuri biologice, chimice, cibernetice sau de securitate înainte de lansare largă.

Soluțiile discutate de experți includ filtre mai bune pentru răspunsuri periculoase, evaluări independente, acces diferențiat pentru cercetători verificați și monitorizarea modului în care modelele pot fi folosite în domenii sensibile. Ideea nu este blocarea cercetării medicale, ci separarea utilizărilor legitime de cele care pot amplifica riscuri grave.

Este importantă și implicarea statelor, nu doar autoreglementarea companiilor. Dacă modelele AI devin capabile să ofere asistență de nivel expert în biologie, atunci biosecuritatea nu mai este doar problema laboratoarelor clasice, ci și a platformelor digitale folosite de milioane de oameni.

Un avertisment, nu o profeție

Cercetarea nu spune că următoarea pandemie va fi provocată de AI. Spune însă că AI-ul ar putea face mai ușor pentru oameni să ajungă la cunoștințe și soluții care înainte erau accesibile doar specialiștilor bine pregătiți. În domenii obișnuite, acest lucru este o democratizare utilă. În biologie cu risc ridicat, poate deveni o vulnerabilitate globală.

De aceea, miza nu este să ne temem de fiecare chatbot, ci să înțelegem că modelele tot mai puternice trebuie însoțite de reguli, teste și limite pe măsura capacităților lor. AI-ul poate ajuta lumea să prevină boli și să răspundă mai rapid la crize sanitare. Dar, fără măsuri de siguranță, aceeași tehnologie ar putea crește riscul ca o criză biologică să fie provocată deliberat.


  • ETICHETE
  • EC
Articolul precedentEscrocherie bancară: fraudă de 4.600 lei prin Messenger și identitate falsă
OdN
fondat la 3.11.1998, înregistrat la Camera Înregistrărilor de Stat, membru al Asociaţiei Presei Independente afiliate WAN (Organizaţiei Internaţionale a Ziarelor) din anul 1999, este primul ziar din câmpia Sorocii, care este inclus în Catalogul ÎS "Poşta Moldovei", apare în limba română

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.