También habrá un cambio en la sofisticación de estos ataques. Esto se debe no solo a los avances de la IA, sino también al modelo comercial de Internet, el capitalismo de vigilancia, que produce una gran cantidad de datos sobre todos nosotros, disponibles para su compra a través de intermediarios de datos. Los ataques dirigidos contra individuos, ya sea para phishing o recopilación de datos o estafas, alguna vez estuvieron solo al alcance de los estados-nación. Combine los expedientes digitales que los corredores de datos tienen sobre todos nosotros con los LLM y tendrá una herramienta hecha a medida para estafas personalizadas. La defensa puede ponerse al día y lo hará, pero antes de que lo haga, nuestra relación señal-ruido se reducirá drásticamente. Empresas como OpenAI intentan evitar que sus modelos hagan cosas malas. Pero con el lanzamiento de cada nuevo LLM, los sitios de redes sociales vibran con nuevos jailbreaks de IA que evaden las nuevas restricciones establecidas por los diseñadores de la IA. ChatGPT, y luego Bing Chat, y luego GPT-4 fueron liberados a los pocos minutos de su lanzamiento, y en docenas de formas diferentes. La mayoría de las protecciones contra los malos usos y la producción dañina son superficiales y los usuarios determinados las evaden fácilmente. Una vez que se descubre un jailbreak, generalmente se puede generalizar, y la comunidad de usuarios abre el LLM a través de las grietas de su armadura. Y la tecnología avanza demasiado rápido para que cualquiera pueda entender completamente cómo funcionan, incluso los diseñadores. Entonces, ¿por qué los estafadores seguían enviando correos electrónicos tan obviamente dudosos? En 2012, el investigador Cormac Herley ofreció una respuesta: eliminó a todos menos a los más crédulos. Un estafador inteligente no quiere perder el tiempo con personas que responden y luego se dan cuenta de que es una estafa cuando se les pide que transfieran dinero. Al usar un correo electrónico de estafa obvio, el estafador puede enfocarse en las personas potencialmente más rentables. Se necesita tiempo y esfuerzo para participar en las comunicaciones de ida y vuelta que empujan a las marcas, paso a paso, de interlocutor a conocido de confianza a indigente. Las computadoras personales son lo suficientemente potentes hoy en día como para ejecutar LLM compactos. Después de que el nuevo modelo de Facebook, LLaMA, se filtró en línea, los desarrolladores lo ajustaron para que se ejecutara de manera rápida y económica en computadoras portátiles potentes. Muchos otros LLM de código abierto están en desarrollo, con una comunidad de miles de ingenieros y científicos. Este es un cambio tanto en el alcance como en la escala. Los LLM cambiarán la canalización de estafas, haciéndolos más rentables que nunca. No sabemos cómo vivir en un mundo con mil millones o 10 mil millones de estafadores que nunca duermen. Sin embargo, esta es una vieja historia: nos recuerda que muchos de los malos usos de la IA son un reflejo de la humanidad más que un reflejo de la tecnología de IA en sí misma. Las estafas no son nada nuevo: simplemente la intención y luego la acción de una persona que engaña a otra para beneficio personal. Y, lamentablemente, el uso de otros como secuaces para realizar estafas no es nada nuevo ni poco común: por ejemplo, el crimen organizado en Asia actualmente secuestra o contrata a miles en talleres clandestinos de estafa. ¿Es mejor que el crimen organizado ya no vea la necesidad de explotar y abusar físicamente de las personas para ejecutar sus operaciones de estafa, o peor que ellos y muchos otros puedan escalar las estafas a un nivel sin precedentes? Las estafas financieras de larga duración ahora se conocen como matanza de cerdos, lo que aumenta el margen potencial hasta su desaparición definitiva y repentina. Tales estafas, que requieren ganarse la confianza e infiltrarse en las finanzas personales de un objetivo, toman semanas o incluso meses de tiempo personal e interacciones repetidas. Es un juego de alto riesgo y baja probabilidad que el estafador está jugando. Hace una década, un tipo de correo electrónico no deseado se había convertido en el chiste de todos los programas nocturnos: "Soy el hijo del difunto rey de Nigeria y necesito su ayuda…". Casi todos habían recibido uno o mil de esos correos electrónicos. hasta el punto de que parecía que todos sabían que eran estafas. Aquí es donde los LLM marcarán la diferencia. Mucho se ha escrito sobre la falta de confiabilidad de los modelos GPT de OpenAI y otros similares: "alucinan" con frecuencia, inventan cosas sobre el mundo y dicen tonterías con confianza. Para el entretenimiento, esto está bien, pero para la mayoría de los usos prácticos es un problema. Sin embargo, no es un error sino una característica cuando se trata de estafas: la capacidad de los LLM para manejar los golpes con confianza, sin importar lo que les lance un usuario, resultará útil para los estafadores mientras navegan de manera hostil, desconcertada y crédula. objetivos de estafa por miles de millones. Las estafas de chatbots de IA pueden atrapar a más personas, porque el grupo de víctimas que se enamorarán de un estafador más sutil y flexible, uno que haya sido entrenado en todo lo que se haya escrito en línea, es mucho más grande que el grupo de aquellos que creen que el rey de Nigeria quiere para darles mil millones de dólares. Pero si bien es un experimento fácil de ejecutar, pierde el riesgo real de que los modelos de lenguaje extenso (LLM, por sus siglas en inglés) escriban correos electrónicos fraudulentos. Las estafas dirigidas por humanos de hoy en día no están limitadas por la cantidad de personas que responden al contacto inicial por correo electrónico. Están limitados por el proceso laborioso de persuadir a esas personas para que envíen dinero al estafador. Los LLM están a punto de cambiar eso. Un solo estafador, desde su computadora portátil en cualquier parte del mundo, ahora puede ejecutar cientos o miles de estafas en paralelo, día y noche, con marcas en todo el mundo, en todos los idiomas bajo el sol. Los chatbots de IA nunca dormirán y siempre se adaptarán a lo largo de su camino hacia sus objetivos. Y los nuevos mecanismos, desde los complementos de ChatGPT hasta LangChain, permitirán la composición de IA con miles de servicios en la nube basados en API y herramientas de código abierto, lo que permitirá a los LLM interactuar con Internet como lo hacen los humanos. Las suplantaciones en tales estafas ya no son solo príncipes que ofrecen las riquezas de su país. Son extraños desesperados que buscan romance, nuevas criptomonedas calientes que pronto se dispararán en valor y nuevos sitios web financieros aparentemente sólidos que ofrecen increíbles rendimientos de los depósitos. Y la gente ya se está enamorando de los LLM. Aquí hay un experimento que están llevando a cabo estudiantes universitarios de ciencias de la computación en todas partes: solicite a ChatGPT que genere correos electrónicos de phishing y pruebe si estos son mejores para persuadir a las víctimas para que respondan o hagan clic en el enlace que el spam habitual. Es un experimento interesante, y es probable que los resultados varíen enormemente según los detalles del experimento.