![](https://media.wired.com/photos/64220cc1672bf7ea208b709d/191:100/w_1280,c_limit/Chat=GPT-Plug-Ins-Business-688077713.jpg)
Parte del problema con los complementos para los modelos de lenguaje es que podrían facilitar el jailbreak de dichos sistemas, dice Ali Alkhatib, director interino del Centro de Ética de Datos Aplicados de la Universidad de San Francisco. Dado que interactúa con la IA utilizando lenguaje natural, existen potencialmente millones de vulnerabilidades sin descubrir. Alkhatib cree que los complementos tienen implicaciones de gran alcance en un momento en que empresas como Microsoft y OpenAI están confundiendo la percepción pública con afirmaciones recientes de avances hacia la inteligencia artificial general. Dan Hendrycks, director del Center for AI Safety, una organización sin fines de lucro, cree que los complementos hacen que los modelos de lenguaje sean más riesgosos en un momento en que empresas como Google, Microsoft y OpenAI presionan agresivamente para limitar la responsabilidad a través de la Ley de IA. Él llama al lanzamiento de los complementos de ChatGPT un mal precedente y sospecha que podría llevar a otros fabricantes de modelos de lenguaje grandes a tomar una ruta similar.
Los complementos también pueden presentar riesgos que afectan a los modelos complejos de IA. Los propios miembros del equipo rojo del complemento de ChatGPT descubrieron que podían "enviar correos electrónicos fraudulentos o no deseados, eludir las restricciones de seguridad o hacer un mal uso de la información enviada al complemento", según Emily Bender, profesora de lingüística en la Universidad de Washington. “Dejar que los sistemas automatizados actúen en el mundo es una decisión que tomamos”, agrega Bender.
ChatGPT ha deslumbrado con su poesía, prosa y puntajes de exámenes académicos. Ahora prepárese para que el precoz chatbot encuentre su próximo vuelo, le recomiende un restaurante con buenos asientos y también le traiga un sándwich.
Y si bien hoy en día puede haber una selección limitada de complementos, la competencia podría empujar a OpenAI a ampliar su selección. Hendrycks ve una distinción entre los complementos de ChatGPT y los esfuerzos anteriores de las empresas de tecnología para hacer crecer los ecosistemas de desarrolladores en torno a la IA conversacional, como el asistente de voz Alexa de Amazon.
La semana pasada, OpenAI, la empresa detrás de ChatGPT, anunció que una gran cantidad de empresas, incluidas Expedia, OpenTable e Instacart, han creado complementos para permitir que el chatbot acceda a sus servicios. Una vez que un usuario activa un complemento, podrá pedirle a ChatGPT que realice tareas que normalmente requerirían usar la web o abrir una aplicación y, con suerte, ver al obediente bot salir corriendo para hacerlo. GPT-4 puede, por ejemplo, ejecutar comandos de Linux, y el proceso de formación de equipos rojos de GPT-4 descubrió que el modelo puede explicar cómo fabricar armas biológicas, sintetizar bombas o comprar ransomware en la dark web. Hendrycks sospecha que las extensiones inspiradas en los complementos de ChatGPT podrían facilitar tareas como el phishing selectivo o los correos electrónicos de phishing. Varios proyectos de código abierto, como LangChain y LLamaIndex, también están explorando formas de crear aplicaciones utilizando las capacidades que brindan los grandes modelos de lenguaje. El lanzamiento de los complementos de OpenAI amenaza con torpedear estos esfuerzos, dice Guo.