Un estudio presenta cómo la IA puede infectarse con malware

¿Qué pasa si un sistema de inteligencia artificial está contaminado con malware? Es una pregunta que hoy en día no se suma a la misma naturalidad y frecuencia con la que surge si pensamos en las computadoras u otros sistemas comunes.

Investigadores de la Universidad de Cornell han descubierto que es posible ocultar código malicioso dentro de las redes neuronales de IA, según señalan en un artículo que describe sus experimentos con código inyectado en estos sistemas.

Como muchos sistemas informáticos, la inteligencia artificial puede infectar virus.

En busca de quienes desarrollan nuevas tecnologías informáticas, los piratas informáticos y los ciberdelincuentes hacen que sus técnicas de ataque sean más complejas. El es modus operandi y las consecuencias de una infección se pueden generar desde averías menores y / o fugas de información, hasta el secuestro (mediante cifrado) o la destrucción de sistemas de archivos completos.

En este nuevo estudiar, el equipo ha encontrado una nueva forma de ejecutar ciertos tipos de sistemas informáticos que operan con inteligencia artificial. Especialmente para las redes neuronales, el equipo encontró una vulnerabilidad a la infiltración de código.

Por su naturaleza, pueden estar mediadas por agentes externos. Todo lo que estos terceros tienen que hacer es imitar la estructura de la red mientras agregan nuevos datos (el código malicioso, en este caso), al igual que los recuerdos se colocan en el cerebro humano.

Zhi Wang, Chaoge Liu y Xiang Cui, los investigadores detrás del estudio de Cornell, descubrieron que era posible hacerlo integrando malware en la red neuronal. El experimento se llevó a cabo con un sistema de inteligencia artificial llamado AlexNet, que, aunque lo suficientemente robusto, podría superarse con la dinámica descrita anteriormente. Para agregar el código a la red neuronal, los investigadores seleccionaron lo que creían que sería la mejor capa para la inyección. También realizaron la misma prueba con un modelo que ya estaba entrenado, pero que se disparó mientras atacaba una red no capacitada, lo que redujo el impacto en toda la red.

Según los investigadores, es posible que la infección no se note, si se hace con discreción. El software antivirus no pudo detectar el malware inyectado y todo el sistema mantuvo el mismo nivel de rendimiento.

Como mínimo, el virus de prueba utilizado en el estudio fue una práctica inocente, porque, aunque se agregó algún código potencialmente malicioso, no se dieron cuenta de cómo ejecutarlo de manera efectiva.

Ahora que se sabe que los sistemas de inteligencia artificial son vulnerables a posibles ataques de malware, está surgiendo un nuevo caso de operaciones para las tecnologías antivirus.