La inteligencia artificial supera a virólogos en el laboratorio y enciende alertas de bioseguridad​

Un estudio reciente revela que modelos avanzados de inteligencia artificial superan a expertos humanos en tareas prácticas de virología, lo que plantea preocupaciones sobre su potencial uso indebido en la creación de armas biológicas.​

En un estudio conjunto del Center for AI Safety, el MIT Media Lab, la Universidad Federal del ABC (Brasil) y la organización SecureBio, se evaluó la capacidad de modelos de inteligencia artificial para resolver problemas complejos en laboratorios de virología. Los resultados mostraron que modelos como el o3 de OpenAI y Gemini 2.5 Pro de Google superaron a virólogos con doctorado en tareas prácticas de diagnóstico y solución de problemas en el laboratorio.

El modelo o3 de OpenAI alcanzó una precisión del 43,8%, mientras que Gemini 2.5 Pro logró un 37,6%. En comparación, los virólogos humanos obtuvieron una media del 22,1% en las mismas pruebas. Estas tareas requerían conocimientos interpretativos y experiencia práctica, tradicionalmente adquiridos mediante mentoría y no fácilmente accesibles en la literatura académica.

Seth Donoughe, científico investigador en SecureBio y coautor del estudio, expresó su preocupación:​

“Por primera vez en la historia, prácticamente cualquier persona tiene acceso a un experto en virología que no juzga y que podría guiarla en procesos complejos de laboratorio para crear armas biológicas”.

El estudio también destacó mejoras significativas en las capacidades prácticas de los modelos de IA en un corto período. Por ejemplo, Claude 3.5 Sonnet de Anthropic mejoró su precisión del 26,9% en junio de 2024 al 33,6% en octubre del mismo año. Asimismo, una versión preliminar de GPT 4.5 de OpenAI superó a GPT-4o en casi 10 puntos porcentuales.

Dan Hendrycks, director del Center for AI Safety, señaló:

“Anteriormente, descubrimos que los modelos tenían mucho conocimiento teórico, pero no práctico. Ahora, están adquiriendo una cantidad preocupante de conocimiento práctico”.

Ante estos hallazgos, algunas empresas de IA han tomado medidas. xAI publicó un marco de gestión de riesgos para implementar salvaguardas en futuras versiones de su modelo Grok. OpenAI informó que ha desplegado nuevas mitigaciones a nivel de sistema para riesgos biológicos en sus modelos recientes. Sin embargo, otras compañías, como Anthropic y Google, no han detallado medidas específicas en respuesta al estudio.

La creciente capacidad de la IA para realizar tareas complejas en virología plantea desafíos significativos en términos de bioseguridad. Expertos y autoridades instan a una regulación más estricta y a la implementación de salvaguardas para prevenir el uso indebido de estas tecnologías en la creación de armas biológicas. La comunidad científica y los legisladores deben colaborar para garantizar que los avances en inteligencia artificial se utilicen de manera segura y ética.

Fuente: Time

Leave A Comment

WP to LinkedIn Auto Publish Powered By : XYZScripts.com