Un grupo destacado de líderes de la industria de la inteligencia artificial (IA), encabezados por Sam Altman de OpenAI y Demis Hassabis de Google DeepMind, ha firmado una declaración que destaca el peligro que representa el desarrollo de esta tecnología para la sociedad. En tan solo 22 palabras, han enfatizado que la mitigación del riesgo de extinción de la IA debe ser una prioridad mundial, junto con otros riesgos sociales como las pandemias y la guerra nuclear.
La oración fue publicada por el Center for AI Safety, una organización sin fines de lucro con sede en San Francisco. Entre los aproximadamente 350 firmantes, que incluyen investigadores, ejecutivos y otras personalidades destacadas, se encuentran Geoffrey Hinton y Yoshua Bengio, dos de los grandes pioneros en el desarrollo de la inteligencia artificial. Esta no es la primera vez que la comunidad científica advierte sobre los peligros asociados con la IA, que actualmente se encuentra en su punto más alto gracias al enorme éxito alcanzado por tecnologías como ChatGPT.
Hace unos meses, importantes ejecutivos, científicos y humanistas firmaron una carta más extensa en la que pedían una pausa en el desarrollo de nuevas tecnologías para establecer medidas de seguridad que eviten sus efectos perjudiciales, que van desde la destrucción de empleos hasta la generación de desinformación.
Sam Altman, CEO de la empresa detrás de la creación de ChatGPT, ha estado advirtiendo durante días que la inteligencia artificial debería ser tratada de manera similar a las armas autónomas. Hace una semana, durante una breve visita a Madrid, abogó por la creación de un organismo internacional similar a la Agencia Internacional de Energía Atómica (IAEA) de la ONU, que supervise el desarrollo de la IA.
La comunidad científica también ha advertido en repetidas ocasiones que la inteligencia artificial podría poner en peligro la supervivencia de la humanidad. Un estudio publicado por investigadores de la Universidad de Oxford y Google a finales del año pasado afirmó que, en el futuro, cuando las máquinas alcancen niveles de sofisticación aún distantes, podrían competir con los humanos por los recursos energéticos en un mundo con recursos finitos.
«En un mundo con recursos infinitos, sería extremadamente incierto lo que sucedería. Pero en un mundo con recursos limitados como el nuestro, se produce una competencia inevitable por dichos recursos», explicó Michael Cohen, investigador de la Universidad de Oxford, en una entrevista con Vice. «Si estás compitiendo con algo capaz de superarte en todo momento, no deberías esperar ganar», concluyó el experto.