Inteligența artificială este discutată de cele mai multe ori în legătură cu joburile, școala, presa, imaginile false sau automatizarea muncii. Există însă un risc mult mai grav, despre care experții în biosecuritate vorbesc tot mai apăsat: posibilitatea ca modelele AI avansate să ajute persoane rău intenționate să înțeleagă, să optimizeze sau să depășească obstacole tehnice în experimente biologice periculoase. Potrivit revistei TIME, un nou studiu sugerează că riscul unei epidemii sau pandemii provocate de om ar putea crește semnificativ dacă AI-ul ajunge să ofere sfaturi de nivel expert în virologie.
Cercetarea nu spune că o astfel de catastrofă este inevitabilă și nici că AI-ul „creează” singur un virus. Avertismentul este mai nuanțat: instrumentele de inteligență artificială pot coborî bariera de acces la cunoștințe tehnice foarte specializate, iar asta poate deveni periculos dacă ele sunt folosite de oameni fără pregătire, dar cu intenții nocive.
Ce au estimat experții despre riscul biologic
Studiul realizat de Forecasting Research Institute a analizat estimările unor specialiști în biologie, biosecuritate și prognoză privind probabilitatea unei epidemii provocate de om. Experții au estimat un risc anual de bază de aproximativ 0,3% pentru un astfel de eveniment major, capabil să provoace peste 100.000 de decese.
Într-un scenariu în care modelele AI ar putea oferi sfaturi de virologie la nivel uman avansat, riscul estimat de experți ar crește la 1,5% pe an. Cu alte cuvinte, de cinci ori mai mult. Cifra nu trebuie citită ca o predicție exactă, ci ca un semnal de alarmă: specialiștii cred că AI-ul ar putea amplifica riscurile biologice dacă ajunge să ofere ajutor practic în zone foarte sensibile.
Un detaliu important este că cercetătorii au testat apoi modelele AI actuale pe un set de probleme complexe de laborator. Rezultatele indică faptul că unele modele au depășit deja performanța unor virusologi cu doctorat în anumite sarcini de depanare experimentală, ceea ce înseamnă că pragul considerat îngrijorător nu mai este neapărat o ipoteză îndepărtată.
De ce este inteligența artificială un risc, dar și o oportunitate
Riscul vine din faptul că modelele mari de limbaj pot sintetiza rapid informații, pot explica pași tehnici, pot sugera soluții la probleme și pot ajuta utilizatorii să depășească blocaje. În cercetarea medicală legitimă, acest lucru poate accelera descoperirea de tratamente, dezvoltarea vaccinurilor sau înțelegerea bolilor infecțioase.
Aceeași capacitate devine însă periculoasă dacă este folosită pentru a reduce obstacolele din calea unor experimente cu potențial nociv. Un raport publicat de GovAI notează că îngrijorarea nu ține doar de informațiile pe care inteligența artificială le poate furniza, ci și de faptul că poate ghida utilizatorul prin probleme practice care, până recent, cereau experiență reală de laborator.
Separat, testul numit Virology Capabilities Test a fost conceput pentru a evalua cât de bine pot modelele AI să rezolve probleme complexe de virologie. Autorii spun că testul include întrebări construite cu ajutorul unor virusologi și urmărește cunoștințe practice, nu doar informații generale găsite într-un manual.
Ce ar trebui să facă laboratoarele AI
Pentru companiile care dezvoltă modele AI, concluzia este clară: sistemele avansate nu mai pot fi tratate doar ca instrumente de productivitate. Ele trebuie testate și pentru riscuri biologice, chimice, cibernetice sau de securitate înainte de lansare largă.
Soluțiile discutate de experți includ filtre mai bune pentru răspunsuri periculoase, evaluări independente, acces diferențiat pentru cercetători verificați și monitorizarea modului în care modelele pot fi folosite în domenii sensibile. Ideea nu este blocarea cercetării medicale, ci separarea utilizărilor legitime de cele care pot amplifica riscuri grave.
Este importantă și implicarea statelor, nu doar autoreglementarea companiilor. Dacă modelele AI devin capabile să ofere asistență de nivel expert în biologie, atunci biosecuritatea nu mai este doar problema laboratoarelor clasice, ci și a platformelor digitale folosite de milioane de oameni.
Un avertisment, nu o profeție
Cercetarea nu spune că următoarea pandemie va fi provocată de AI. Spune însă că AI-ul ar putea face mai ușor pentru oameni să ajungă la cunoștințe și soluții care înainte erau accesibile doar specialiștilor bine pregătiți. În domenii obișnuite, acest lucru este o democratizare utilă. În biologie cu risc ridicat, poate deveni o vulnerabilitate globală.
De aceea, miza nu este să ne temem de fiecare chatbot, ci să înțelegem că modelele tot mai puternice trebuie însoțite de reguli, teste și limite pe măsura capacităților lor. AI-ul poate ajuta lumea să prevină boli și să răspundă mai rapid la crize sanitare. Dar, fără măsuri de siguranță, aceeași tehnologie ar putea crește riscul ca o criză biologică să fie provocată deliberat.














