Otro paso crucial hacia la seguridad es repensar colectivamente la forma en que creamos y usamos la IA. Los desarrolladores e investigadores de IA pueden comenzar a establecer normas y pautas para la práctica de IA escuchando a las muchas personas que han estado abogando por una IA más ética durante años. Esto incluye a investigadores como Timnit Gebru, quien propuso un movimiento de "IA lenta", y Ruha Benjamin, quien enfatizó la importancia de crear principios rectores para una IA ética durante su presentación principal en una conferencia reciente de AI. Las iniciativas impulsadas por la comunidad, como el Código de Ética que está implementando la conferencia NeurIPS (un esfuerzo que estoy presidiendo), también forman parte de este movimiento y tienen como objetivo establecer pautas sobre lo que es aceptable en términos de investigación de IA y cómo considerar su impactos más amplios en la sociedad. Las autoridades reguladoras de todo el mundo ya están redactando leyes y protocolos para gestionar el uso y el desarrollo de nuevas tecnologías de IA. La Ley de Responsabilidad Algorítmica del Senado de EE. UU. e iniciativas similares en la UE y Canadá se encuentran entre las que ayudan a definir qué datos pueden y no pueden usarse para entrenar sistemas de IA, abordar cuestiones de derechos de autor y licencias, y sopesar las consideraciones especiales necesarias para el uso de IA. en entornos de alto riesgo. Una parte crítica de estas reglas es la transparencia: exigir a los creadores de sistemas de IA que brinden más información sobre detalles técnicos como la procedencia de los datos de entrenamiento, el código utilizado para entrenar modelos y cómo se implementan funciones como los filtros de seguridad. Tanto los desarrolladores de modelos de IA como sus usuarios intermedios pueden apoyar estos esfuerzos comprometiéndose con sus representantes y ayudando a dar forma a la legislación en torno a las cuestiones descritas anteriormente. Después de todo, son nuestros datos los que se utilizan y nuestros medios de subsistencia se ven afectados. El llamado a una pausa en el trabajo de la IA no solo es vago, sino también inviable. Si bien la capacitación de grandes modelos de lenguaje por parte de empresas con fines de lucro recibe la mayor parte de la atención, está lejos de ser el único tipo de trabajo de IA que se lleva a cabo. De hecho, la investigación y la práctica de la IA están ocurriendo en empresas, en el mundo académico y en competencias de Kaggle en todo el mundo sobre una multitud de temas que van desde la eficiencia hasta la seguridad. Esto significa que no hay un botón mágico que cualquiera pueda presionar que detenga la investigación de IA "peligrosa" y permita solo el tipo "seguro". Y los riesgos de la IA que se mencionan en la carta son todos hipotéticos, basados en una mentalidad a largo plazo que tiende a pasar por alto problemas reales como la discriminación algorítmica y la vigilancia predictiva, que están dañando a las personas ahora, a favor de los posibles riesgos existenciales para la humanidad.
Pero hacer que este tipo de información esté disponible no es suficiente por sí solo. Las empresas que desarrollan modelos de IA también deben permitir auditorías externas de sus sistemas y ser responsables de abordar los riesgos y las deficiencias si se identifican. Por ejemplo, muchos de los modelos de IA más recientes, como ChatGPT, Bard y GPT-4, también son los más restrictivos y solo están disponibles a través de una API o un acceso controlado que está totalmente controlado por las empresas que los crearon. Básicamente, esto los convierte en cajas negras cuya salida puede cambiar de un día para otro o producir resultados diferentes para diferentes personas. Si bien ha habido algunos equipos rojos aprobados por la compañía de herramientas como GPT-4, no hay forma de que los investigadores accedan a los sistemas subyacentes, lo que hace que el análisis científico y las auditorías sean imposibles. Esto va en contra de los enfoques para la auditoría de los sistemas de IA que han propuesto académicos como Deborah Raji, quien ha pedido una visión general en las diferentes etapas del proceso de desarrollo del modelo para que se detecten los comportamientos de riesgo y los daños antes de implementar los modelos en la sociedad. La semana pasada, el Future of Life Institute publicó una carta abierta en la que proponía una moratoria de seis meses en la carrera de IA "peligrosa". Desde entonces, ha sido firmado por más de 3000 personas, incluidos algunos miembros influyentes de la comunidad de IA. Pero si bien es bueno que los riesgos de los sistemas de IA estén cobrando visibilidad dentro de la comunidad y en toda la sociedad, tanto los problemas descritos como las acciones propuestas en la carta son poco realistas e innecesarias.
En lugar de centrarnos en las formas en que la IA puede fallar en el futuro, deberíamos centrarnos en definir claramente qué constituye un éxito de la IA en el presente. Este camino es eminentemente claro: en lugar de detener la investigación, debemos mejorar la transparencia y la rendición de cuentas mientras desarrollamos pautas sobre la implementación de sistemas de IA. Las iniciativas políticas, de investigación y dirigidas por los usuarios en este sentido han existido durante décadas en diferentes sectores, y ya tenemos propuestas concretas con las que trabajar para abordar los riesgos actuales de la IA.