
Cada vez que publica una foto, responde en las redes sociales, crea un sitio web o incluso envía un correo electrónico, sus datos se extraen, almacenan y utilizan para entrenar la tecnología de IA generativa que puede crear texto, audio, video e imágenes con solo unas pocas palabras. Esto tiene consecuencias reales: los investigadores de OpenAI que estudian el impacto de sus modelos de lenguaje en el mercado laboral estimaron que aproximadamente el 80 por ciento de la fuerza laboral de los EE. alrededor del 19 por ciento de los trabajadores pueden ver al menos la mitad de sus tareas afectadas. También estamos viendo un cambio inmediato en el mercado laboral con la generación de imágenes. En otras palabras, los datos que creó pueden dejarlo sin trabajo.
Cuando una empresa construye su tecnología sobre un recurso público, Internet, es sensato decir que esa tecnología debe estar disponible y abierta para todos. Pero los críticos han señalado que GPT-4 carecía de información o especificaciones claras que permitieran a cualquier persona ajena a la organización replicar, probar o verificar cualquier aspecto del modelo. Algunas de estas empresas han recibido grandes sumas de fondos de otras corporaciones importantes para crear productos comerciales. Para algunos en la comunidad de IA, esta es una señal peligrosa de que estas empresas van a buscar ganancias por encima del beneficio público.
Es poco probable que la transparencia del código por sí sola garantice que estos modelos generativos de IA sirvan al bien público. Hay pocos beneficios inmediatos concebibles para un periodista, analista de políticas o contador (todas profesiones de "alta exposición" según el estudio de OpenAI) si los datos que sustentan un LLM están disponibles. Tenemos cada vez más leyes, como la Ley de Servicios Digitales, que requerirían que algunas de estas empresas abran su código y datos para la revisión de un auditor experto. Y el código fuente abierto a veces puede permitir a los actores malintencionados, lo que permite a los piratas informáticos subvertir las precauciones de seguridad que las empresas están implementando. La transparencia es un objetivo loable, pero eso por sí solo no garantizará que la IA generativa se utilice para mejorar la sociedad.
Para crear realmente un beneficio público, necesitamos mecanismos de rendición de cuentas. El mundo necesita un organismo de gobernanza global de IA generativa para resolver estas perturbaciones sociales, económicas y políticas más allá de lo que cualquier gobierno individual es capaz de hacer, lo que cualquier grupo académico o de la sociedad civil puede implementar, o cualquier corporación está dispuesta o es capaz de hacer. Ya existe un precedente de cooperación global por parte de empresas y países para hacerse responsables de los resultados tecnológicos. Tenemos ejemplos de organizaciones y grupos de expertos independientes y bien financiados que pueden tomar decisiones en nombre del bien público. Una entidad como esta tiene la tarea de pensar en los beneficios para la humanidad. Construyamos sobre estas ideas para abordar los problemas fundamentales que la IA generativa ya está surgiendo.
En la era de la proliferación nuclear después de la Segunda Guerra Mundial, por ejemplo, existía un temor creíble y significativo de que las tecnologías nucleares se descontrolaran. La creencia generalizada de que la sociedad tenía que actuar colectivamente para evitar un desastre global se hace eco de muchas de las discusiones actuales en torno a los modelos generativos de IA. En respuesta, países de todo el mundo, encabezados por EE. UU. y bajo la guía de las Naciones Unidas, se reunieron para formar la Agencia Internacional de Energía Atómica (OIEA), un organismo independiente libre de afiliaciones gubernamentales y corporativas que brindaría soluciones a los problemas más lejanos. llegando a las ramificaciones y capacidades aparentemente infinitas de las tecnologías nucleares. Opera en tres áreas principales: energía nuclear, seguridad tecnológica y física nuclear y salvaguardias. Por ejemplo, después del desastre de Fukushima en 2011, proporcionó recursos críticos, educación, pruebas e informes de impacto, y ayudó a garantizar la seguridad nuclear continua. Sin embargo, la agencia es limitada: depende de los estados miembros para cumplir voluntariamente con sus normas y directrices, y de su cooperación y asistencia para llevar a cabo su misión.
En tecnología, la Junta de Supervisión de Facebook es un intento práctico de equilibrar la transparencia con la responsabilidad. Los miembros de la Junta son un grupo global interdisciplinario y sus juicios, como revocar una decisión tomada por Facebook de eliminar una publicación que mostraba acoso sexual en la India, son vinculantes. Este modelo tampoco es perfecto; hay acusaciones de captura corporativa, ya que la junta está financiada únicamente por Meta, aunque a través de un fideicomiso independiente, y se preocupa principalmente por la eliminación de contenido.
Por defectuosos que sean, ambos ejemplos proporcionan un punto de partida de cómo podría ser un organismo de gobierno global de IA. Una organización como esta debería ser un esfuerzo continuo consolidado con colaboración y asesoramiento de expertos, como el OIEA, en lugar de un proyecto secundario para personas con otros trabajos de tiempo completo. Al igual que la Junta de Supervisión de Facebook, debe recibir asesoramiento y orientación de la industria, pero debe tener la capacidad de tomar decisiones vinculantes independientes que las empresas deben cumplir.
Este organismo de gobierno global de IA generativa debe ser financiado a través de fondos no restringidos (en otras palabras, sin condiciones) por todas las empresas involucradas en la generación y uso a escala de IA generativa de cualquier forma. Debe cubrir todos los aspectos de los modelos generativos de IA, incluido su desarrollo, implementación y uso en relación con el bien público. Debe basarse en recomendaciones tangibles de la sociedad civil y las organizaciones académicas, y tener la autoridad para hacer cumplir sus decisiones, incluido el poder de exigir cambios en el diseño o el uso de modelos generativos de IA, o incluso detener su uso por completo si es necesario. Finalmente, este grupo debe abordar las reparaciones por los cambios radicales que pueden surgir, la pérdida de empleos, el aumento de la desinformación y el potencial para inhibir elecciones libres y justas entre ellos. Este no es un grupo solo de investigación; Este es un grupo para la acción.
Hoy en día, tenemos que confiar en que las empresas hagan lo correcto, pero alinear el bien mayor con los incentivos de las partes interesadas ha demostrado ser insuficiente. Con esta estructura, el grupo de supervisión de IA estaría posicionado para tomar medidas como pueden hacerlo las corporaciones, pero con el propósito del bien público. Aquí hay un ejemplo de cómo. En primer lugar, a través del intercambio seguro de datos, podría realizar investigaciones que actualmente realizan estas empresas. El documento de daños económicos de OpenAI, aunque admirable, debería ser competencia de un tercero imparcial en lugar de una corporación. En segundo lugar, el trabajo de este grupo no es solo identificar problemas, sino experimentar con formas novedosas de solucionarlos. Usando el “impuesto” que pagan las corporaciones para unirse, este grupo podría establecer un fondo de apoyo educativo o de subsistencia para los trabajadores desplazados al que las personas pueden solicitar para complementar los beneficios de desempleo, o un ingreso básico universal basado en los niveles de ingresos, independientemente de la situación laboral. o pago proporcional en comparación con los datos que se le podrían atribuir como miembro contribuyente de la sociedad digital. Finalmente, con base en la colaboración con la sociedad civil, los gobiernos y las propias empresas, estaría facultado para tomar medidas, tal vez exigiendo a las empresas que retrasen la implementación en industrias particularmente de alto impacto y apoyen los programas de transición laboral.
Los problemas que plantean los desarrollos de IA generativa son difíciles de abordar de manera significativa y, como sociedad, actualmente carecemos de los medios para abordarlos a la velocidad y escala a la que se nos impone la nueva tecnología. Las empresas de IA generativa tienen la responsabilidad de encomendar a un organismo independiente que hable en nombre del mundo la toma de decisiones críticas sobre la gobernanza y el impacto.
Actualizado el 7-4-2023, 12:30 p. y que no aborda problemas sistémicos como algoritmos o políticas de moderación. De hecho, los usuarios también pueden hacer apelaciones, y la Junta ha emitido recomendaciones de políticas más amplias. Además, este artículo se ha actualizado para aclarar que la Junta de Supervisión de Facebook está financiada por Meta a través de un fideicomiso independiente.