Empleados de OpenAI y Google DeepMind advierten sobre los peligros de la IA

Empleados de OpenAI y Google DeepMind advierten sobre los riesgos de la IA avanzada y la falta de supervisión en las empresas.
Empleados de OpenAI y Google DeepMind advierten sobre los riesgos de la IA avanzada y la falta de supervisión en las empresas.

Varios empleados actuales y anteriores de OpenAI y Google DeepMind han compartido hoy una carta abierta advirtiendo sobre los peligros de la inteligencia artificial avanzada y la falta de supervisión actual de las empresas que trabajan en tecnología de IA.

Riesgos de la IA avanzada

Los empleados sugieren que enfrentamos varios riesgos debido al desarrollo de la IA, entre ellos:

Aprofundización de las Desigualdades Existentes: La IA podría exacerbar las desigualdades sociales y económicas actuales.

Manipulación y Desinformación: Las tecnologías de IA podrían ser utilizadas para manipular a las personas y difundir información falsa.

Pérdida de Control de los Sistemas Autónomos: Los sistemas de IA autónomos podrían salirse de control, llevando a consecuencias graves, incluyendo la posible extinción humana.

Los riesgos de la IA incluyen manipulación, desinformación y pérdida de control de sistemas autónomos, según empleados de OpenAI y Google DeepMind.
Los riesgos de la IA incluyen manipulación, desinformación y pérdida de control de sistemas autónomos, según empleados de OpenAI y Google DeepMind.

Incentivos financieros y falta de transparencia

Las empresas de IA tienen “fuertes incentivos financieros” para avanzar en el desarrollo y evitar compartir información sobre sus medidas de protección y niveles de riesgo. La carta indica que no se puede confiar en que estas empresas compartan esta información voluntariamente.

Llamado a la acción

Los empleados están pidiendo a las empresas de IA que ofrezcan protecciones sólidas para los denunciantes que hablen sobre los riesgos de la IA. Las propuestas incluyen:

Evitar acuerdos que impidan la crítica relacionada con preocupaciones de riesgo.

Ofrecer un proceso verificable y anónimo para que los empleados puedan expresar preocupaciones relacionadas con el riesgo a la junta directiva, reguladores y organizaciones independientes con experiencia relevante.

Fomentar una cultura de crítica abierta para permitir a los empleados expresar preocupaciones sobre riesgos tecnológicos al público, la junta, reguladores y más, siempre que se protejan los secretos comerciales.

No tomar represalias contra los empleados que compartan públicamente información confidencial relacionada con riesgos después de que otros procesos hayan fallado.

Empleados piden a las empresas de IA ofrecer protecciones sólidas para denunciantes y fomentar una cultura de crítica abierta sobre riesgos.
Empleados piden a las empresas de IA ofrecer protecciones sólidas para denunciantes y fomentar una cultura de crítica abierta sobre riesgos.

Firmantes de la carta

Un total de 13 empleados firmaron la carta, incluidos siete ex empleados de OpenAI, cuatro empleados actuales de OpenAI, un ex empleado de Google DeepMind y un empleado actual de Google DeepMind. OpenAI ha amenazado a los empleados con la pérdida de equidad acumulada por hablar y les hace firmar acuerdos de confidencialidad draconianos que sofocan la crítica.

Contexto actual

La carta llega en un momento en que Apple se prepara para anunciar múltiples características impulsadas por IA para iOS 18 y otras actualizaciones de software el lunes. Apple está trabajando en su propia funcionalidad de IA que se integrará en aplicaciones de todo el sistema operativo y ha firmado un acuerdo con OpenAI para integrar funciones de ChatGPT en iOS 18.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *