Los asistentes de IA abren la puerta a nuevas amenazas de ciberataques

Los asistentes de IA abren la puerta a nuevas amenazas de ciberataques

Los asistentes de inteligencia artificial, protagonistas de la revolución de este sector, han creado una puerta de ingreso a los piratas informáticos para robar, borrar o modificar datos de los usuarios, advierten expertos en ciberseguridad.

Los asistentes de IA son programas informáticos que utilizan robots conversacionales, los chatbots, para realizar tareas que los humanos hacen en línea, como comprar un billete de avión o añadir eventos a un calendario.

Te puede interesar

Pero la capacidad de dar órdenes a los asistentes de IA con lenguaje natural hace posible cibertaques, incluso de personas sin grandes conocimientos técnicos.

“Estamos entrando en una era en la que la ciberseguridad ya no se trata de proteger a los usuarios de actores malintencionados con un conjunto de habilidades técnicas altamente especializadas”, señala la startup de IA Perplexity en una publicación de blog.

“Por primera vez en décadas, estamos viendo vectores de ataque nuevos y novedosos que pueden provenir de cualquier lado”, apunta.

Estos “ataques de inyección” no son nuevos en el mundo de los hackers, pero antes requerían código informático ingeniosamente escrito y oculto para causar daño.

Sin embargo, desde que las herramientas de IA pasaron de simplemente generar texto, imágenes o videos a ser asistentes que pueden explorar de forma independiente internet, el potencial de manipulación maliciosa ha aumentado.

Para Marti Jorda Roca, ingeniero en la española NeuralTrust, hay que considerar esta posibilidad en todos los niveles.

“La gente debe entender que el uso de la IA presenta peligros específicos de seguridad”, y en cuanto a las empresas, “deben instalar salvaguardas (…) para encuadrar estos riesgos”, afirma.

Meta califica esta nueva amenaza, denominada “inyección de consulta“, como una “vulnerabilidad”, mientras que el responsable de seguridad informática de OpenAI, Dane Stuckey, la considera “un problema de seguridad no resuelto”.

Ambas compañías están invirtiendo miles de millones de dólares en IA, cuyo uso crece rápidamente junto con sus capacidades.

“Delicado equilibrio”

La inyección de consultas puede, en algunos casos, ocurrir en tiempo real cuando una solicitud del usuario —”resérvame una habitación de hotel”— es manipulada por un actor hostil para convertirse en otra cosa —”transfiere 100 dólares a esta cuenta”.

Pero estas instrucciones también pueden estar ocultas en internet mientras los asistentes de IA integrados en navegadores encuentran datos en línea de calidad u origen dudosos, y potencialmente armados con comandos ocultos de hackers.

Eli Smadja, de la firma israelí de ciberseguridad Check Point, ve la inyección de consultas como el “problema de seguridad número uno” para los modelos de lenguaje que impulsan a los asistentes de IA surgidos tras la irrupción del ChatGPT.

Todos los grandes actores de la IA generativa para público en general han tomado medidas y publicado cada uno recomendaciones para protegerse contra estos ataques o desbaratarlos.

Microsoft, por ejemplo, integró un detector de órdenes maliciosas, que se determina principalmente en función del lugar de origen de la instrucción.

Te puede interesar

De su lado, OpenAI alerta al usuario cuando el asistente de IA accede a un sitio sensible y solo permite que la operación continúe si el usuario humano lo observa directamente en tiempo real.

Otros sugieren pedir una validación explícita al usuario antes de realizar una tarea importante, como exportar datos o acceder a cuentas bancarias.

“Un gran error que veo mucho es dar al mismo asistente de IA poder absoluto para hacer todo”, explica Smadja a la AFP.

Para Johann Rehberger, investigador en ciberseguridad conocido bajo el seudónimo wunderwuzzi (genio), “el gran desafío es que los ataques se perfeccionan”.

“Solo mejoran”, dice Rehberger sobre las tácticas de los hackers.

Queda por encontrar “el delicado equilibrio” entre seguridad y facilidad de uso, “porque las personas también quieren simplemente que la IA haga cosas por ellos”, sin tener que supervisarla constantemente, apunta.

Rehberger argumenta que los asistentes de IA no están lo suficientemente maduros como para ser confiables.

“Todavía no estamos en el punto de poder dejar que un asistente de IA opere de forma autónoma durante un largo período y realice de manera segura una tarea determinada”, dice. “Termina por desviarse”.

admin