Sam Altman, director ejecutivo de OpenAI escribió hace poco en X su preocupación sobre el contenido generado automáticamente, según él, este superará al generado por los humanos, por lo que los peligros de la desinformación, la manipulación y condicionamientos de conductas de forma intencionada sin dudas se multiplicarían.
Nunca tomé tan en serio la teoría de la Internet muerta, pero parece que ahora hay muchas cuentas de Twitter administradas por LLM.
La revolución de la Inteligencia Artificial ha permitido la generación de contenido a una alta velocidad, contenido que pueden ser imágenes, texto y videos. No solo se trata de la velocidad, también del hecho de estar al alcance de prácticamente todos en el mundo, esto incluye a los malintencionados que quieren sacar provecho, sobre todo en redes sociales, a estos contenidos y me refiero no a la práctica de buena fe sino a contenido engañoso que arrastre olas de usuarios, consumiéndolo y compartiéndolo.
Un estudio de la empresa de seguridad Imperva publicado hace dos años ya calculaba que “casi la mitad de todo el tráfico de Internet fue realizado por bots”
«Ya hay pruebas sólidas de que las redes sociales están siendo manipuladas por bots [programas informáticos que imitan el comportamiento humano] para influir en la opinión pública con desinformación y ha estado sucediendo durante años»
Jake Renzella y Vlada Rozova, investigadores de universidades de Sydney y Melbourne
A medida que las cuentas en redes sociales impulsadas por bots comienzan a tener seguidores reales, aumenta su credibilidad y se vuelve más complejo detectar si se trata de un bot o de una persona real. La falta de habilidades para poder determinar origen de contenido y de la cuenta en sí misma es algo que está influyendo a que estas cuentas bots sigan creciendo.
También hay que apuntar que al ser contenido mayormente proveniente de la Inteligencia Artificial, teniendo en cuenta que esta ya conoce nuestro lenguaje, cada vez será más complicado distinguir si es humano o no por su parecido.
Y esos bots no solo son capaces de crear contenidos singulares, sino también de imitar la fórmula para que su difusión sea masiva y viral
Según un nuevo estudio publicado en Physical Review Letters y dirigido por investigadores de la Universidad de Vermont y el Instituto Santa Fe:
«lo que se propaga, ya sea una creencia, una broma o un virus, evoluciona en tiempo real y gana fuerza a medida que se distribuye siguiendo un modelo matemático de cascadas de autorrefuerzo [Self-Reinforcing Cascades]»
Investigadores alertan que los riesgos de viralización de contenidos que manejan la manipulación o la desinformación se multiplican con las herramientas de inteligencia artificial y exigen a los usuarios una mayor conciencia de los peligros de los asistentes y agentes de Inteligencia Artificial.
Otros creen que la «Internet ética» es posible, argumentan que el problema no es necesariamente que el contenido sea generado con Inteligencia Artificial, sino que alguien se haga cargo de él, en otras palabras está diciendo que quien comparta contenido firme de alguna manera ese contenido.
Analizando todo el panorama estamos ante hitos y retos importantes en la historia, no podemos mirar al costado y debemos como humanidad tomar cartas en el asunto antes que se nos salga de control, si no es que ya está camino a eso. La inteligencia Artificial es una gran herramienta en las manos adecuada, pero una mortal arma en las erróneas.
La inteligencia Artificial es una gran herramienta en las manos adecuada, pero una mortal arma en las erróneas.
¿Qué tú que crees? ¿Cuál es tu opinión al respecto?, debe tener una, esto te va a afectar aun si no dices nada, así que, porque no comentar y dar tu opinión, deja tu comentario, estaré encantado de leerlo.
Te dejo mi libro, por si quieres aprender más sobre Inteligencia Artificial:
Hasta pronto, no vemos en otro artículo para seguir hablando de Inteligencia Artificial. Recuerda que debes ser un actor en esta revolución, no un simple espectador.