Un artículo reciente publicado en Science ha resaltado el peligro de que los sistemas de inteligencia artificial distorsionen las ideas de los usuarios al proporcionarles información falsa. El rápido desarrollo de la inteligencia artificial ha llevado a que empresas de todos los tamaños ofrezcan herramientas capaces de generar contenido bajo demanda. Sin embargo, existe una preocupación creciente sobre la proliferación de información sesgada y falsa en estas plataformas.
La profesora de psicología en la Universidad de Berkeley, Celeste Kidd, ha liderado un estudio que analiza el peligro de que las máquinas puedan alterar las creencias de los usuarios. Kidd señala nuestra tendencia a aceptar de manera acrítica cualquier dato consultado en internet, especialmente cuando se nos ofrece una respuesta clara y segura, sin importar la precisión de los datos.
En su artículo, Kidd destaca que la popularidad de sistemas como ChatGPT y las máquinas generadoras de imágenes puede influir en la aceptación de sus resultados. La seguridad con la que estas herramientas responden a las consultas no deja espacio para dudas, lo que puede afectar tanto a las creencias como a los sesgos de las personas.
Es crucial llevar a cabo estudios en esta etapa temprana de la tecnología para comprender mejor cómo estos sistemas pueden engañar y alterar las creencias de los usuarios. A pesar de los avances, la inteligencia artificial aún está lejos de superar las capacidades humanas.
Es importante tener en cuenta que los sistemas de inteligencia artificial no inventan información, sino que generan contenido basado en el vasto conjunto de datos con los que han sido entrenados. Estos datos provienen tanto de los usuarios como de diversas fuentes en internet, lo que implica la posibilidad de errores y sesgos en el contenido generado.
El riesgo radica en que los usuarios tienden a aceptar como válido el contenido generado por estas máquinas debido a la seguridad con la que ofrecen respuestas y a la expectativa que generan. Esto puede llevar a que las personas acepten información falsa sin cuestionarla, lo cual ya ha dado lugar a situaciones problemáticas, como la presentación de datos falsos ante un juez o acusaciones infundadas.
Kidd enfatiza la importancia de realizar estudios exhaustivos para comprender cómo la exageración alrededor de estos modelos afecta la propagación de contenido falso o sesgado. Asimismo, destaca la necesidad de transparencia por parte de las empresas desarrolladoras en cuanto a los datos utilizados para entrenar estos sistemas.
Es esencial educar a la sociedad sobre las capacidades reales de estas tecnologías y sus riesgos. Además, se hace necesario regular la tecnología para garantizar un uso responsable y evitar la manipulación de la información. La confianza no debe basarse únicamente en los intereses económicos y egos de los desarrolladores de modelos, sino en una comprensión informada de sus limitaciones y posibles impactos.