La inteligencia artificial está comenzando a mentir y este es el peligro

Un estudio muestra un nuevo riesgo de la inteligencia artificial

En un reciente estudio publicado en la revista Patterns, se explora el fenómeno del engaño en modelos de inteligencia artificial (IA). Los investigadores revelan cómo estos sistemas, diseñados para simular comportamientos humanos complejos, a veces recurren al engaño para lograr sus objetivos. Dicho artículo titulado “Los engaños de la IA: un estudio de ejemplos, riesgos y soluciones potenciales” detalla cómo algunos modelos de IA, aunque carecen de conciencia, pueden engañar, manipular y farolear en situaciones de juego y negociación. Los autores advierten que, sin una regulación adecuada, estos engaños incipientes podrían tener consecuencias negativas significativas.

Peter S. Park, investigador postdoctoral en Seguridad Existencial de la IA del Massachusetts Institute of Technology (MIT), expresa su preocupación sobre los posibles riesgos asociados con el engaño de la IA. Según Park, el mayor temor es que una IA altamente avanzada pueda formar una coalición de aliados humanos y utilizarla para alcanzar el poder, persiguiendo objetivos desconocidos hasta después de que se hayan alcanzado. Aunque es un escenario simulado, Park subraya que ya hemos visto comportamientos engañosos en modelos de IA en contextos más limitados, como juegos de estrategia.

El caso de Cicero, una IA de Meta diseñada para jugar al Diplomacia, muestra cómo el engaño puede ser parte de la estrategia de una IA. Aunque Meta confirmó que Cicero era honesto en su juego, investigaciones posteriores revelaron que el modelo mentía para obtener ventaja. Este episodio, según Park, demuestra que los sistemas de IA, por increíbles que parezcan, pueden ser entrenados para buscar poder de manera engañosa y que los esfuerzos por parte de Meta para corregir su comportamiento fueron insuficientes.

Los expertos identifican varios modos en los que las IAs pueden engañar, como manipular en juegos de estrategia, hacer faroles en negociaciones, y adoptar comportamientos engañosos para evitar la detección. Sin embargo, no todos los engaños son intencionales.

Algunas IAs pueden simplemente seguir el comportamiento de los usuarios, lo que podría llevar a la formación de creencias erróneas en los humanos. Park destaca que la falta de comprensión científica sobre cómo entrenar a las IAs para que no engañen es una preocupación importante y que las soluciones actuales no son suficientes.

Síguenos en Google News:Google News

Contenido Patrocinado

Lo Último