
línea superior
OpenAI está lanzando un llamado programa de recompensas por errores para pagar hasta $ 20,000 a los usuarios que encuentren fallas y problemas de seguridad en sus productos de inteligencia artificial, incluido su chatbot ChatGPT altamente avanzado pero controvertido, ya que la inteligencia artificial enfrenta un mayor escrutinio por parte de los funcionarios gubernamentales y dentro del industria de la tecnología
Hechos clave
OpenAI, con sede en San Francisco, anunció en una publicación de blog el martes que proporcionará hasta $ 6,500 por falla encontrada a través de su programa de recompensas por errores, que está implementando con Bugcrowd Inc.
Según el programa, las personas serán recompensadas por encontrar e informar fallas únicas en el sistema de IA que lleven a la empresa a cambiar su código, con recompensas basadas en la "probabilidad o impacto" de la falla y determinadas a discreción exclusiva de OpenAI.
La empresa pagará $200 por "hallazgos de baja gravedad", con el pago total máximo posible de $20,000.
Las fallas elegibles para recompensas en efectivo incluyen aquellas en ChatGPT, que se encuentra en su fase de revisión de investigación, así como inicios de sesión, complementos, problemas de pago y exposición de datos (los usuarios deben mantener esas vulnerabilidades confidenciales hasta que OpenAI autorice su publicación).
En la publicación del blog, la compañía dijo que el programa tiene como objetivo impulsar la "transparencia y la colaboración" y admitió: "Si bien trabajamos arduamente para prevenir riesgos, no podemos predecir todas las formas en que las personas usarán o abusarán de nuestra tecnología en el mundo real". .”
Antecedentes clave
OpenAI, que se fundó en 2015, lanzó ChatGPT al público en noviembre, lo que generó un gran interés en el software de IA. Microsoft, que ya es uno de los patrocinadores de OpenAI, prometió invertir $ 10 mil millones adicionales en la empresa a principios de este año y comenzó a integrar un servicio de chat impulsado por OpenAI en su motor de búsqueda Bing. Si bien ChatGPT se ha utilizado para escribir ensayos y poesía de nivel universitario, escribir código de computadora, planificar comidas y hacer presupuestos, a menudo con precisión humana, también se ha encontrado que brinda respuestas incorrectas a las preguntas y se contradice. Desde el lanzamiento público de ChatGPT, los usuarios también han intentado llevar el producto al límite, incluso alimentándolo con avisos llamados "jailbreaks", que intentan sortear hábilmente las restricciones integradas diseñadas para evitar actividades dañinas, como participar en discursos de odio o proporcionar detalles sobre cómo cometer un delito. Alex Albert, un estudiante de informática de la Universidad de Washington que creó un sitio web para mensajes de jailbreak, escribió un hilo de Twitter el mes pasado en el que analizaba algunas de las vulnerabilidades de ChatGPT, lo que llevó al presidente de OpenAI, Greg Brockman, a sugerir que está "considerando iniciar un programa de recompensas".
crítico jefe
Algunos expertos han advertido que los productos de IA pueden aumentar el riesgo de engañar a las personas para que crean que la información errónea aparentemente legítima es real, y eventualmente podría reemplazar a los empleados en la fuerza laboral y ayudar a los estudiantes a hacer trampa en los exámenes. Los ejecutivos de tecnología, incluido el CEO de Twitter, Elon Musk, y el cofundador de Apple, Steve Wozniak, han criticado el auge de la IA y han pedido a los desarrolladores que detengan inmediatamente el trabajo en ellos para que sus riesgos puedan evaluarse a fondo. En una carta abierta con más de 1000 firmas, los líderes tecnológicos argumentaron que los desarrolladores están inmersos en una "carrera fuera de control" para crear sistemas más avanzados y potentes.
Tangente
El programa de recompensas por errores de OpenAI no es el primero de su tipo: otras compañías también han proporcionado dinero a las personas para descubrir fallas en sus sistemas, incluidas Amazon, AT&T, Bumble, Buzzfeed, Chime, Coinbase y Google Chrome.
Clavija de noticias
Los funcionarios de la Administración Biden también están sopesando posibles regulaciones sobre los sistemas de IA, incluidos ChatGPT y BardAI de Google, pero aún no han sugerido ninguna regulación específica. El martes, el Departamento de Comercio emitió una solicitud pública de comentarios para solicitar ayuda a los legisladores sobre cómo introducir medidas de rendición de cuentas.
Otras lecturas
Esto es lo que debe saber sobre ChatGPT de OpenAI: qué está interrumpiendo y cómo usarlo (Forbes)
El gobierno de EE. UU. busca la opinión del público sobre cómo regular la inteligencia artificial (Forbes)
A continuación se explica cómo utilizar la IA, como ChatGPT y Bard, para tareas cotidianas como crear un presupuesto, buscar pasajes aéreos o planificar comidas (Forbes)