El presidente Joe Biden dijo el martes que queda por ver si la inteligencia artificial es peligrosa, pero cree que las empresas de tecnología deben asegurarse de que sus productos sean seguros antes de lanzarlos al público.
Biden se reunió con su consejo de asesores en ciencia y tecnología sobre los riesgos y oportunidades que los rápidos avances en inteligencia artificial plantean para los usuarios individuales y la seguridad nacional.
“La IA puede ayudar a lidiar con algunos desafíos muy difíciles como las enfermedades y el cambio climático, pero también tiene que abordar los riesgos potenciales para nuestra sociedad, nuestra economía, nuestra seguridad nacional”, dijo Biden al grupo, que incluye académicos y ejecutivos de Microsoft y Google.
La inteligencia artificial saltó a la vanguardia en la conversación nacional y global en los últimos meses después del lanzamiento del popular chatbot ChatGPT AI, que ayudó a iniciar una carrera entre los gigantes tecnológicos para revelar herramientas similares, al tiempo que planteó preocupaciones éticas y sociales sobre la tecnología que puede generar convincente. prosa o imágenes que parecen obra de humanos.
Si bien las empresas de tecnología siempre deben ser responsables de la seguridad de sus productos, el recordatorio de Biden refleja algo nuevo: el surgimiento de herramientas de IA fáciles de usar que pueden generar contenido manipulable y medios sintéticos de aspecto realista conocidos como deepfakes, dijo Rebecca Finlay, directora ejecutiva. de la Asociación sobre IA respaldada por la industria.
La Casa Blanca dijo que el presidente demócrata estaba usando la reunión de AI para “discutir la importancia de proteger los derechos y la seguridad para garantizar la innovación responsable y las salvaguardias apropiadas” y reiterar su llamado al Congreso para que apruebe una legislación para proteger a los niños y reducir la recopilación de datos por parte de las empresas de tecnología. .
La semana pasada, Italia bloqueó temporalmente ChatGPT por preocupaciones sobre la privacidad de los datos, y los legisladores de la Unión Europea han estado negociando la aprobación de nuevas reglas para limitar los productos de inteligencia artificial de alto riesgo en el bloque de 27 naciones.
Por el contrario, «EE. UU. ha tenido un enfoque más laissez-faire para el desarrollo comercial de la IA», dijo Russell Wald, director gerente de política y sociedad del Instituto Stanford para la Inteligencia Artificial centrada en el ser humano.
Es probable que los comentarios de Biden del martes no cambien eso, pero Biden “está preparando el escenario para un diálogo nacional sobre el tema al llamar la atención sobre la IA, que se necesita desesperadamente”, dijo Wald.
El año pasado, la administración de Biden dio a conocer un conjunto de objetivos de gran alcance destinados a evitar los daños causados por el aumento de los sistemas de inteligencia artificial, incluidas pautas sobre cómo proteger los datos personales de las personas y limitar la vigilancia.
En particular, el Plan para una Declaración de Derechos de la IA no estableció acciones de cumplimiento específicas, sino que pretendía ser un llamado a la acción para que el gobierno de los EE. UU. protegiera los derechos digitales y civiles en un mundo impulsado por la IA.
El consejo de Biden, conocido como PCAST, está compuesto por expertos en ciencia, ingeniería, tecnología y medicina y está copresidido por el director de rango gabinete de la Oficina de Política Científica y Tecnológica de la Casa Blanca, Arati Prabhakar.
Cuando se le preguntó si la IA es peligrosa, Biden dijo el martes: “Queda por verse. Podría ser.»