Znanstvena zajednica uznemirena je nakon što su istraživači sa Sveučilišta Stanford po prvi put pokazali da napredni modeli umjetne inteligencije (AI) mogu generirati potpuno nove virusne genomske sekvence koje su u laboratorijskim uvjetima djelovale kao funkcionalni bakteriofagi — virusi koji napadaju bakterije.
Tim predvođen profesorom Brianom Hiejem koristio je model nazvan Evo, obučen na velikom broju poznatih genoma bakteriofaga, da “ni iz čega” generira sekvence. Istraživači su nakon računalne selekcije sintetizirali i testirali ograničeni broj predloženih sekvenci, a dio njih uspešno je inficirao i uništio određene sojeve bakterije E. coli. Autori ističu potencijal terapijskih primjena, ali i naglašavaju da se u ovom slučaju radilo o bakteriofagima koji ne inficiraju ljude.
Ipak, vijest je izazvala široku raspravu o sigurnosti i etici. Istaknuti stručnjaci upozoravaju da takva sposobnost modela u rukama zlonamjernih aktera može otvoriti put za zlorabu u obliku dizajna štetnih patogena.
“Dizajn proteina pokretan umjetnom inteligencijom jedno je od najuzbudljivijih i najbržih područja, ali ta brzina stvara i ozbiljne rizike,” upozorio je Eric Horvitz, glavni znanstveni direktor Microsofta. “Moramo biti proaktivni u upravljanju tim rizicima,” kaže.
Sličnu zabrinutost ilustrira i nedavna studija Microsoftova tima objavljena u časopisu Science, koja je pokazala da AI može pomoći u generiranju varijanti toksičnih proteina koje bi mogle zaobići određene sigurnosne provjere, što je nalaz koji dodatno naglašava potrebu za nadzorom i zaštitnim mjerama.
Stručnjaci pozivaju na hitne mjere
Reakcije su oštre i od znanstvene zajednice. Jonathan Feldman (Georgia Tech) i Craig Venter upozorili su da, iako trenutačno nismo na rubu da AI samostalno stvara smrtonosne ljudske viruse, scenarij zloupotrebe nije zanemariv. Tina Hernandez‑Boussard (Stanford) napominje da modeli, ako su vrlo optimizirani, mogu pronaći načine da umanje postojeće zaštitne mehanizme, pa zato treba postupati s velikom opreznošću, javlja Daily Mail.
Autori studije sa Stanforda navode da su u radu ugradili zaštitne mjere (npr. filtre i testove) kako bi se spriječilo da modeli automatski predlažu opasne sekvence, te su proveli laboratorijske provjere ograničenog opsega. Ipak, mnogi traže strože globalne standarde, regulatorne okvire i bolju koordinaciju između istraživača, industrije i sigurnosnih agencija.
Sintetička biologija: Velike koristi i ozbiljni rizici
Razvoj u polju sintetičke biologije donio je značajne napretke, od novih terapija do boljih poljoprivrednih rješenja, ali istovremeno je povećao mogućnost zlonamjernih primjena. Pregledni radovi u tom području identificiraju tri najveće prijetnje – rekonstrukcija postojećih patogena, pojačavanje patogenosti postojećih mikroba i potpuno novo konstruiranje štetnih organizama.
Bivši zapovjednik NATO-a James Stavridis i drugi sigurnosni analitičari upozoravali su na rizik da bi napredna biotehnologija mogla postati sredstvo asimetričnog napada koji bi koristile odmetničke države ili terorističke skupine.
Što dalje?
Znanstveni timovi, industrija i odgovorne institucije pozvani su na hitnu suradnju, razvijanje jasnih smjernica za odgovorno objavljivanje rezultata, uvođenje tehničkih i proceduralnih sigurnosnih mjera, jačanje nadzora i kontrole pristupa potencijalno rizičnim alatima te međunarodnu regulaciju i inspekciju.
U međuvremenu, većina stručnjaka naglašava da se istraživanje i inovacije u biologiji ne smiju zaustaviti, ali da njihov tempo i opseg moraju ići uz adekvatne mehanizme rizika i transparentnosti.
Vijesti o primjeni umjetne inteligencije u genetici i biologiji često uključuju tehničke detalje koji mogu biti dvosmisleni. U ovakvim temama važan je balans, izvještavanje mora informirati javnost i potaknuti raspravu o etici i regulaciji, ali bez dijeljenja operativnih uputa koje bi mogle omogućiti zlonamjernu primjenu tehnologije.








