Jason Matheny, director del destacado think tank Rand Corporation, analizó los avances en el campo de la Inteligencia Artificial (IA) y alertó que estos han facilitado el acceso a conocimientos que permiten desarrollar armas biológicas y otras herramientas destructivas. El experto, con un amplio historial en catástrofes tecnológicas y biomédicas, lleva años abogando por una mayor concientización sobre las amenazas que suponen las armas biológicas y la IA mal diseñada que, inclusive, fue apuntado durante el último año por muchos empresarios y funcionarios.
En ese sentido, Matheny expresó su preocupación por la disminución de las barreras que individuos o grupos que pretenden perpetrar ataques biológicos encuentran hoy en día, a lo que se suman la asequibilidad y accesibilidad de herramientas y materiales necesarios para tales fines. A continuación, apuntó al fácil acceso al conocimiento especializado necesario para estas acciones que podría darse en el futuro y que obliga, por tanto, a estar alerta frente a esta amenaza.
“¿Podrían, básicamente, obtener información de posgrado de un tutor digital en forma de un modelo de lenguaje de gran tamaño? Ahora mismo, probablemente no pero, si se analiza el progreso de los últimos años, la barrera de entrada para alguien que quiera llevar a cabo un ataque biológico se está erosionando”, sostuvo en una entrevista con la revista Wired.
Sin embargo, el biológico no es el único rubro alcanzado por el mal uso de la IA. El experto se refirió también a implicaciones más amplias como lo son, por ejemplo, su impacto potencial en las operaciones militares y en la dinámica del poder mundial, ya que considera que muchos países tienen razones por las que querrían desarrollar armas autónomas. En este ámbito, el de la guerra cibernética, es donde la autonomía tiene la más alta relación costo-beneficio, agregó.
De todas formas, comentó que es muy difícil tener certezas sobre cómo será este campo en el futuro y la tasa de error que tendrán estas piezas. Inclusive, señaló que hay países que las han prohibido por completo mientras que otros prefieren esperar a ver cómo son y cuál es su precisión antes de tomar una decisión. Asimismo, explicó que son convenientes en países con poco capital económico, debido a su bajo coste, o con un capital humano débil.
Para contrarrestar estos riesgos, Matheny sostuvo la necesidad de desarrollar marcos para la competencia tecnológica que den prioridad a la seguridad, así como diseñar estrategias claras y abordar la erosión de las normas democráticas a escala mundial. También, reflexionando sobre su experiencia en salud pública y bioseguridad, insistió en que es fundamental extender estas medidas al rubro de la ingeniería biológica para mitigar los riesgos asociados a las pandemias artificiales y los brotes naturales de enfermedades.
Por otro lado, pidió a los actores influyentes e involucrados en el tema trabajar por comprender y abordar los polifacéticos retos que plantea la IA, especialmente en el contexto de la competencia geopolítica con países como China, donde se deben tomar decisiones con conocimiento de causa y adoptar medidas proactivas para protegerse de posibles amenazas, aprovechando al mismo tiempo las ventajas de la innovación tecnológica.
“Necesitamos una evaluación precisa de las fortalezas y debilidades netas en diversas áreas de competencia, ya sea económica, industrial, militar, capital humano, educación o talento”, sostuvo a la par que instó a las naciones a colaborar en temas como la “no proliferación, el clima, ciertos tipos de inversiones y preparación para una pandemia”.
Texto original de Infobae
¿Ya conoces nuestro canal de YouTube? ¡Suscríbete!
La IA marca una nueva era en los procesos editoriales
Unos suben en ascensor panorámico veloz y otros en escaleras espinosas lentas
Entrevista: ‘Incremar impulsa su crecimiento con la plataforma Ecuador Agroalimentario’
Mente positiva
ENTREVISTA: Energía sostenible: el futuro empieza en casa