Algunos firmantes de cartas son parte del auge actual de la IA, lo que refleja preocupaciones dentro de la propia industria de que la tecnología avanza a un ritmo potencialmente peligroso. “Aquellos que los fabrican han dicho que podrían ser una amenaza existencial para la sociedad e incluso para la humanidad, sin un plan para mitigar totalmente estos riesgos”, dice Emad Mostaque, fundador y director ejecutivo de Stability AI, una empresa que crea herramientas de IA de generación y signatario. de la carta “Es hora de dejar de lado las prioridades comerciales y hacer una pausa por el bien de todos para evaluar en lugar de correr hacia un futuro incierto”, agrega.
La carta, que fue escrita por Future of Life Institute, una organización enfocada en los riesgos tecnológicos para la humanidad, agrega que la pausa debe ser “pública y verificable” y debe involucrar a todos aquellos que trabajan en modelos avanzados de IA como GPT-4. No sugiere cómo podría verificarse un alto en el desarrollo, pero agrega que “si tal pausa no puede promulgarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, algo que parece poco probable que suceda dentro de seis meses.
Stone, uno de los firmantes de la carta, dice que no está de acuerdo con todo lo que contiene y que no está personalmente preocupado por los peligros existenciales. Pero dice que los avances están ocurriendo tan rápido que la comunidad de IA y el público en general apenas tuvieron tiempo de explorar los beneficios y posibles usos indebidos de ChatGPT antes de que se actualizara con GPT-4. "Creo que vale la pena obtener un poco de experiencia sobre cómo se pueden usar y mal usar antes de competir para construir el próximo", dice. “Esto no debería ser una carrera para construir el próximo modelo y sacarlo antes que los demás”.
“Necesitamos presionar el botón de pausa y considerar los riesgos del despliegue rápido de modelos generativos de IA”, dice Marc Rotenberg, fundador y director del Centro de IA y Política Digital, quien también fue signatario de la carta. Su organización planea presentar una queja esta semana ante la Comisión Federal de Comercio de EE. UU. para que investigue OpenAI y ChatGPT y prohíba las actualizaciones de la tecnología hasta que se implementen las "garantías adecuadas", según su sitio web. Rotenberg dice que la carta abierta es "oportuna e importante" y que espera que reciba un "apoyo generalizado". Hasta la fecha, la carrera ha sido rápida. OpenAI anunció su primer modelo de lenguaje grande, GPT-2 en febrero de 2019. Su sucesor, GPT-3, se presentó en junio de 2020. ChatGPT, que introdujo mejoras además de GPT-3, se lanzó en noviembre de 2022.
Los avances recientes en las capacidades de la IA coinciden con la sensación de que se pueden necesitar más medidas de seguridad en torno a su uso. La UE está considerando actualmente una legislación que limitaría el uso de la IA según los riesgos involucrados. La Casa Blanca ha propuesto una Declaración de derechos de la IA que detalla las protecciones que los ciudadanos deben esperar de la discriminación de algoritmos, las violaciones de la privacidad de los datos y otros problemas relacionados con la IA. Pero estas regulaciones comenzaron a tomar forma incluso antes de que comenzara el reciente auge de la IA generativa. Actualizado el 29/03/2021, 10:40 p. Un borrador anterior de la carta contenía un error. También se ha agregado un comentario de OpenAI. El ritmo del cambio y la escala de inversión son significativos. Microsoft ha invertido $ 10 mil millones en OpenAI y está utilizando su IA en su motor de búsqueda Bing, así como en otras aplicaciones. Aunque Google desarrolló parte de la IA necesaria para construir GPT-4, y previamente creó poderosos modelos de lenguaje propios, hasta este año decidió no lanzarlos debido a preocupaciones éticas. Un ingeniero de una gran empresa de tecnología que firmó la carta y que pidió no ser identificado porque no estaba autorizado para hablar con los medios, dice que ha estado usando GPT-4 desde su lanzamiento. El ingeniero considera que la tecnología es un cambio importante, pero también una gran preocupación. “No sé si seis meses es suficiente, pero necesitamos ese tiempo para pensar qué políticas debemos implementar”, dice. Pero el entusiasmo por ChatGPT y las maniobras de búsqueda de Microsoft parecen haber empujado a Google a acelerar sus propios planes. La compañía recientemente presentó Bard, un competidor de ChatGPT, y ha creado un modelo de lenguaje llamado PaLM, que es similar a las ofertas de OpenAI, disponible a través de una API. “Parece que nos estamos moviendo demasiado rápido”, dice Peter Stone, profesor de la Universidad de Texas en Austin y presidente del Estudio de cien años sobre IA, un informe destinado a comprender las implicaciones a largo plazo de la IA. “Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4 (incluido el GPT-5 que se está entrenando actualmente)”, afirma la carta, cuyos firmantes incluyen a Yoshua Bengio, un profesor de la Universidad de Montreal considerado un pionero de la IA moderna, el historiador Yuval Noah Harari, el cofundador de Skype Jaan Tallinn y el CEO de Twitter, Elon Musk.