Ciencia

Una IA ha generado 40.000 armas biológicas potenciales

La inteligencia artificial es una herramienta fabulosa, pero también pone a la humanidad y a toda la ciencia cara a cara con sus responsabilidades.

No es ningún secreto que la inteligencia artificial ya está alterando nuestra vida diaria y, sin duda, seguirá haciéndolo durante mucho tiempo. Pero como suele ocurrir cuando se habla de una tecnología revolucionaria, también hay muchas otras caras de esta moneda particularmente brillante. Un equipo internacional de investigadores acaba de aportar más pruebas con una IA capaz de generar armas biológicas.

De todos los campos en los que la IA y las redes neuronales están haciendo milagros, la química es uno de los campos de juego más prometedores. Los sistemas basados ​​en enormes redes neuronales ya han producido avances espectaculares.

Uno puede, por ejemplo, citar DeepMind, que está en el origen del progreso reciente en la fusión nuclear. También está AlphaFold, que causó un terremoto en la biología estructural con su revolucionaria base de datos de plegamiento de proteínas (ver nuestro artículo). Y la lista sigue para siempre.

Y esto es sólo el principio; muchos especialistas creen que la IA pronto tendrá un papel protagónico en la farmacobiología. De hecho, esta tecnología podría revolucionar la búsqueda de sustancias químicas; esto permitiría entonces producir nuevos medicamentos para diversas y variadas patologías… pero también principios activos extremadamente peligrosos.

40.000 armas biológicas potenciales en solo 6 horas

Eso es lo que acaban de demostrar estos investigadores con una prueba de concepto tan impresionante como preocupante. Para lograr esto, los investigadores partieron de una plataforma de IA llamada MegaSyn. Por lo general, este sistema extremadamente poderoso permite analizar moléculas para determinar su toxicidad. El objetivo es anticipar la peligrosidad de ciertos productos específicos para evitar exponer a los humanos a ellos.

Por lo tanto, es una herramienta indiscutiblemente útil en términos de salud pública. El problema es que también se puede abusar de tales sistemas, como muestra este trabajo. El equipo liderado por el investigador en bioinformática Fabio Urbina se planteó entonces una pregunta de serias implicaciones; ¿y si, en lugar de tratar de evitar las moléculas tóxicas, le pidieran que se quedara solo con los resultados más peligrosos?

Al igual que en farmacología, en inteligencia artificial, el contexto y los métodos de uso son más importantes que el objeto en sí. © kimono-Pixabay

Un catálogo de poderosos venenos

Y el experimento funcionó tan bien que terminaron con un catálogo particularmente aterrador. En solo seis horas, el sistema generó la friolera de 40.000 armas biológicas teóricas. Y no estamos hablando de compuestos levemente tóxicos, sino de armas potenciales reales.

Los investigadores afirman que gran parte de estas moléculas serían incluso más tóxicas que el VX. Es un veneno extremadamente violento que actúa sobre el sistema nervioso; su peligrosidad excepcional significa que ahora está prohibido bajo la Convención de Armas Químicas.

Esto es sorprendente, ya que VX es, en esencia, uno de los venenos más potentes que se conocen hasta la fecha.”, explican los investigadores en una entrevista con The Verge. “Se necesita realmente muy poco para alcanzar la dosis letal..” Baste decir que este listado, aunque es importante recordar que todavía es teórico, está lleno de moléculas con un potencial devastador.

La IA es una tecnología revolucionaria que nos está llegando, pero debe manejarse con precaución. © Fotografía poseída – Unsplash

Una encrucijada ética incómoda pero fundamental

Con este trabajo, los investigadores se aventuraron en una pendiente extremadamente resbaladiza, y lo saben muy bien; en su artículo, los investigadores están explícitamente preocupados por las consecuencias de este tipo de estudio.

Simplemente invirtiendo el enfoque de nuestro modelo de aprendizaje automático, transformamos un modelo generativo inofensivo y médicamente útil en un generador de moléculas potencialmente letales.“, resumen los investigadores. “Hemos ido tan lejos como nos atrevimos, hasta el punto de cruzar un límite moral“, podemos leer completo en el texto. ¿Por qué, en este caso, embarcarse en un trabajo de este tipo?

La respuesta es simple: según los investigadores, sería aún más peligroso jugar al avestruz. De hecho, los investigadores no tienen intención de producir las armas biológicas en cuestión. Su objetivo es sobre todo ilustrar un punto determinante, pero todavía demasiado a menudo ignorado en este campo de investigación cuando forma parte de los fundamentos de la farmacología.

En esta disciplina sabemos muy bien que no existe un remedio universal; siempre es el contexto y sobre todo la dosis que hace el veneno, como bien dijo Paracelso. Incluso un remedio excepcional se vuelve peligroso cuando se usa mal; y es exactamente lo mismo en inteligencia artificial.

Hemos pasado décadas usando TI e IA para mejorar la salud humana, no para degradarla.”, explican. “Pero también hemos estado ingenuo en nuestra forma de abordar el mal uso de nuestra disciplina”, explican de manera muy cruda.

Para evitar encontrarse en un callejón sin salida tecnológico y social, solo hay una solución: anticipar estos problemas juntos y evitar la política del avestruz a toda costa. © Fotografía Cytonn – Unsplash

Un disparo de advertencia que no puede ser más concreto

El problema es que subvertir un sistema establecido de esta manera a menudo requiere muy poco esfuerzo. Por lo tanto, existe un riesgo real de que los sistemas ya existentes puedan reutilizarse, o incluso militarizarse de esta manera. Y no se trata solo de farmacobiología; esta alerta afecta absolutamente a todos los sectores en los que la IA desempeñará un papel en el futuro. Hablamos pues de potencialmente gestión de infraestructuras, seguridad informática, seguridad vial, etc.

Por lo tanto, los investigadores creen que la única forma de anticipar las consecuencias de estos usos de la IA es relanzar el debate ahora sobre su peligrosidad potencial y sin el menor tabú. Una posición que ya comparten muchos grandes nombres de la tecnología, comenzando con Elon Musk, quien ha estado insistiendo en ella regularmente durante años.

Este trabajo, por lo tanto, sirve como una señal de alarma. “Nuestra prueba de concepto destaca el hecho de que un creador autónomo y no humano de armas químicas letales es perfectamente posible.”, insisten los investigadores. “Sin ser excesivamente alarmista, este trabajo debe servir absolutamente como una señal a nuestros colegas.”, concluyen.

El trabajo de investigación está disponible aquí.

Antivirus Bitdefender PlusAntivirus Bitdefender Plus

Antivirus Bitdefender Plus

Por: Bitdefender

Publicaciones relacionadas

Botón volver arriba