Empleados de empresas de Inteligencia Artificial advierten de los peligros de esta tecnología.

Según denuncian, la opacidad se debe en parte a la ausencia de regulaciones internacionales estrictas que obliguen a estas compañías a divulgar información crítica.
Un documento firmado por 11 empleados de OpenAI —empresa conocida por su desarrollo del ChatGPT— y dos de Google DeepMind, uno de los cuales anteriormente pertenecía a Anthropic, advierte sobre los peligros potenciales de la IA.
Estos riesgos incluyen desde el incremento de las desigualdades ya existentes, hasta la manipulación y desinformación, e incluso la posibilidad de perder el control sobre sistemas autónomos de IA, lo que podría llegar a amenazar la existencia humana.
“Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil”, anota el documento.
Los firmantes, algunos bajo anonimato, expresan su esperanza de que estos peligros se puedan mitigar con la guía adecuada de la comunidad científica, legisladores y la sociedad en general. No obstante, señalan que los incentivos financieros de las empresas para esquivar una supervisión efectiva son significativos, y dudan que las estructuras de gobernanza corporativa personalizadas sean suficientes para inducir un cambio.

El documento también destaca las dificultades que enfrentan los empleados al intentar denunciar prácticas cuestionables debido a los estrictos contratos de confidencialidad.
Por ello, los expertos solicitan un compromiso por parte de las empresas para permitir críticas relacionadas con los riesgos, y proponen la creación de procedimientos anónimos que permitan a empleados y extrabajadores expresar sus preocupaciones directamente al directorio de la empresa, reguladores y organizaciones independientes especializadas.
Este llamado a la acción ocurre en un contexto donde, en marzo de 2023, un grupo de líderes tecnológicos y políticos ya había pedido la suspensión temporal de los experimentos con IA avanzada, argumentando que estos podrían representar graves riesgos para la sociedad y la humanidad.