1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

IA: ¿Qué reglas buscan instalar los magnates tecnológicos?

Janosch Delcker
9 de noviembre de 2023

Los líderes de gigantes tecnológicos como X, OpenAI o Meta están dando forma al debate sobre cómo regular la Inteligencia Artificial. Este dominio cada vez mayor preocupa a investigadores y activistas.

https://p.dw.com/p/4Ycps
 Mark Zuckerberg, Dario Amodei, Elon Musk y Sam Altman.
Mark Zuckerberg, Dario Amodei, Elon Musk y Sam Altman son los principales representantes de empresas dedicadas a la IA que intervienen en el actual debate sobre su regulación.Imagen: Mario Jose Sanchez/picture alliance/Kimberly White/Getty/Imago/Justin Sullivan/Getty

A medida que la inteligencia artificial (IA) reconfigura las industrias y el propio tejido social, los responsables políticos debaten sobre cómo regularla. En la discusión, los representantes de las principales empresas tecnológicas del mundo se han erigido como voces destacadas.

Sin embargo, investigadores y activistas expresan su preocupación por la creciente influencia de las grandes empresas tecnológicas de origen estadounidense en el debate. Además, advierten se podrían eclipsar cuestiones críticas como la violación de la privacidad y la protección de los trabajadores. "Hemos visto cómo estas empresas se las arreglan hábilmente para establecer los términos de cómo debe ser el debate", declara a DW Gina Neff, Directora Ejecutiva del Centro Minderoo de Tecnología y Democracia de la Universidad de Cambridge.

Estas son las voces más influyentes y lo que defienden:

Elon Musk: el profeta de la fatalidad

Durante años, el empresario Elon Musk ha hecho sonar la alarma sobre el impacto potencialmente catastrófico de la IA en la civilización. Ya en 2018, declaró que esta tecnología era "mucho más peligrosa que las armas nucleares". Pero al mismo tiempo, Musk ha advertido contra la supervisión excesiva, diciendo que los gobiernos deben evitar "cargarla con regulaciones que inhiban el lado positivo de la IA".

Daniel Leufer, analista político senior del grupo de derechos digitales Access Now, en Bruselas, señala que Musk "está desviando la atención hacia cosas que son bastante especulativas y a menudo pertenecientes al reino de la ciencia ficción".

Sam Altman: el susurrador de reguladores

En noviembre de 2022, OpenAI, con sede en San Francisco, lanzó ChatGPT, convirtiéndose en la primera empresa en poner a disposición del público en línea un sistema de IA generativa a gran escala. Desde entonces, el consejero delegado de la empresa, Sam Altman, se ha embarcado en una gira mundial para reunirse con legisladores desde Washington D.C. hasta Bruselas y debatir cómo regular la IA.

Altman ha advertido que las aplicaciones de IA de alto riesgo podrían causar "daños significativos al mundo" y necesitan ser reguladas. Al mismo tiempo, ha ofrecido la experiencia de OpenAI para guiar a los responsables políticos. Para Gina Neff, profesora de la Universidad Cambridge, "es una comunicación corporativa brillante". Opina que "en esencia dice: 'no confíen en nuestros competidores, no confíen en ustedes mismos, confíen en nosotros para hacer este trabajo'".

Mark Zuckerberg: el gigante silencioso

En lo que respecta a Meta, otra empresa líder en el desarrollo de la IA, su consejero delegado, Mark Zuckerberg, ha permanecido en silencio. En un discurso pronunciado en septiembre ante legisladores estadounidenses, Zuckerberg abogó por la colaboración entre responsables políticos, académicos, sociedad civil e industria "para minimizar los riesgos potenciales de esta nueva tecnología, pero también para maximizar sus posibles beneficios." Aparte de eso, parece haber delegado en gran medida el debate normativo en sus adjuntos, como el Presidente de Asuntos Globales de Meta, Nick Clegg.

Darío Amodei: el nuevo 

Por último está Anthropic. Fundada en 2021 por antiguos miembros de OpenAI, esta empresa de IA centrada en la seguridad no ha tardado en atraer importantes inversiones. Durante un reciente discurso ante los legisladores en la cumbre sobre seguridad de la IA celebrada en Bletchley Park, Amodei advirtió que, aunque los peligros que plantean los actuales sistemas de IA pueden ser relativamente limitados, es "probable que lleguen a ser muy graves en un futuro próximo".

Para hacer frente a estas amenazas, Amodei presentó a los legisladores una metodología desarrollada por su empresa. Sin embargo, Daniel Leufer, activista de derechos digitales de la ONG Access Now, advierte del peligro de depender excesivamente de empresas como Anthropic para elaborar políticas. "Debemos tener mucho cuidado con dejar que marquen la agenda", dice Leifert.

(mn/ers)