¿Una “pausa” de seis meses? ¿Alguien realmente cree que esta es una propuesta seria que tendrá algún impacto (excepto alguna publicidad que los medios perseguirán)? ¿Los capitalistas de riesgo dejarán de leer propuestas generativas de IA? ¿Dejarán los periodistas de jugar con la IA generativa? ¿Los estudiantes dejarán de usarlo? ¿"Todos los laboratorios de IA… harán una pausa inmediata durante al menos 6 meses"? ¿Realmente el Congreso hará algo? No.
El mismo de siempre
Todo el frenesí sobre la IA está fuera de lugar. Estamos a punto de crear los asistentes más inteligentes de la historia, asistentes que pueden ayudarnos a curar el cáncer, planificar ciudades, mejorar el sistema legal y frenar el desastre ambiental, entre tantas otras tareas que los humanos han tenido "dificultad" para realizar. Los grandes modelos de lenguaje distribuyen el poder a las personas y profesiones que han estado tratando de descubrir cómo optimizar los sistemas inteligentes durante años. Bueno, ahora hay conectividad conversacional con el conocimiento antiguo y recién creado que ayudará a resolver algunos problemas que los humanos han evitado o simplemente fallado. ¿Quién no querría conectarse al "stock total mundial de datos de texto utilizables… esto incluye todos los libros del mundo, todos los artículos científicos, todos los artículos de noticias, toda Wikipedia, todo el código disponible públicamente y gran parte del resto de Internet? , filtrada por calidad (p. ej., páginas web, blogs, medios de comunicación social)?
Parálisis regulatoria
Esta tecnología, como toda tecnología, debe ser "gestionada". Pero, ¿alguna vez ha sido así? Incluso un Congreso alimentado por una industria que se beneficia de la desinformación, las calificaciones y el "capitalismo de vigilancia" aún debe desarrollar regulaciones de privacidad simples y efectivas. Ahora queremos que los miembros del Congreso regulen la tecnología que no entienden en sus niveles más básicos. No nos engañemos. El hecho de que el Congreso no entienda lo digital no es el problema real (aunque a veces es vergonzoso). Los nuevos llamados a la regulación, como todos los anteriores, caerán en oídos sordos en el altar donde adoran los políticos y los cabilderos. Todos deberíamos reducir nuestras expectativas regulatorias. Una pausa de seis meses no mejorará las perspectivas de regulación.
La tecnología siempre impacta en los trabajos
La tecnología asesina puestos de trabajo, que es su razón de ser. Eficiencia, ahorro de costes, rentabilidad, cuota de mercado: estos son siempre los objetivos de la tecnología. Más rápido, más barato, lo que sea, por eso amamos y odiamos la tecnología. Aquellos que poseen viejos modelos de negocios lo odian; aquellos en busca de otros nuevos les encanta. Los “nuevos participantes” son elogiados por su creatividad e ingenio. Todo depende de dónde te sientes, como describió Clayton Christensen hace tantos años. Si bien hay "lenguaje" y otras profesiones en el punto de mira de la IA generativa (GAI), queda por ver cuán desplazante es. Dicho esto, todos los negocios del planeta están tratando de medir el impacto que GAI tendrá sobre sí mismos, sus competidores y la estructura misma de su industria. Solíamos llamar a esto “planificación estratégica”.
El desplazamiento laboral no está relacionado con causas inevitables. Ya hemos pasado por esto antes con otras tecnologías. La medida en que esperamos que los humanos se reeduquen y renueven sus herramientas se yuxtapone con lo que esperamos que haga el gobierno. Por ejemplo, se ha discutido la RBU (ingreso básico universal). Pero antes de hacer nada, se debe documentar el alcance del desplazamiento. Estamos demasiado temprano en la recopilación de estos datos. Por supuesto, queremos ser lo más predictivos posible aquí (ponerse al día es doloroso), pero tampoco queremos entrar en pánico. Se avecina un gran desplazamiento laboral, seguro. Pero es esa ventana de reeducación/reequipamiento la que es tan desafiante. ¿Lo haremos bien? Improbable, ya que, después de todo, nos perdimos la ventana climática. Pero podemos comenzar a planificar algunos cambios económicos importantes en lo que hacen los humanos y sus asistentes inteligentes. Comprender las proporciones aquí es esencial.
La perfección nunca es perfecta
Los modelos de lenguaje grande están lejos de ser perfectos. Suelen alucinar:
“Los LLM, tal como existen hoy en día, nunca reemplazarán a la Búsqueda de Google. ¿Por qué no? En resumen, porque los LLM de hoy inventan cosas.
“Abundan los ejemplos de las 'alucinaciones' de ChatGPT (como se hace referencia a estas declaraciones erróneas). Esto no es para destacar a ChatGPT; todos los modelos de lenguaje generativo que existen hoy en día alucinan de manera similar.
“Por poner algunos ejemplos: recomienda libros que no existen ; insiste en que el número 220 es menor que 200; no está claro si el asesino de Abraham Lincoln estaba en el mismo continente que Lincoln en el momento del asesinato; proporciona explicaciones plausibles pero incorrectas de conceptos como el teorema de Bayes”.
"Es una pregunta abierta si el problema de la alucinación de los LLM se puede resolver a través de mejoras incrementales en las arquitecturas existentes, o si será necesario un cambio de paradigma más fundamental en las metodologías de IA para darle sentido común y comprensión real a la IA".
ChatGPT4 tuvo algunos pensamientos sobre la alucinación:
“¿Por qué alucinas tanto?”, le pregunté .
“Como modelo de lenguaje de IA, no tengo la capacidad de alucinar. Genero respuestas basadas en los patrones y las relaciones que he aprendido de la gran cantidad de datos de texto en los que me entrené. A veces, mis respuestas pueden parecer inesperadas o incluso 'alucinatorias' porque puedo combinar diferentes conceptos y generar nuevas combinaciones de ideas que pueden no haberse establecido explícitamente en los datos de entrada. Sin embargo, esto no es una verdadera alucinación, sino más bien una forma de generación de lenguaje creativo. Mis respuestas se generan algorítmicamente en función de patrones estadísticos en los datos de entrada y las instrucciones que me da el usuario, y no tengo experiencias subjetivas ni conciencia”.
Me suena un poco a la defensiva.
Esperemos y veamos si GAI deja de alucinar.
Por qué deberíamos amar a GAI
Los modelos de lenguaje grande pueden ser extremadamente útiles. La conversación actual, que morirá en al menos seis meses, es negativa. A menos que se extienda la moratoria de relaciones públicas sobre la IA, lo que es poco probable por muchas razones, deberíamos dejar de molestar a la GAI y tal vez comenzar a pensar en cómo optimizar su uso. Aquí hay una breve lista:
- Chatbot/Asistentes virtuales
- Detección de fraude
- Traducción
- Creación/investigación de contenido
- Análisis de los sentimientos
se pone mejor
¿Podría la IA generativa reducir los costos de atención médica y desarrollar nuevos medicamentos contra el cáncer? ¿O tal vez todo el cuidado de la salud? ¿O urbanismo? ¿Cambio climático? ¿Diseño de producto? ¿Servicio al Cliente?
Le pregunté a ChapGPT4 sobre todo esto.
“¿Cuáles son las cosas buenas que puede hacer la IA generativa?
“Generación de contenido creativo: la IA generativa se puede utilizar para crear arte, música, videos y otras formas de contenido, que pueden ayudar a inspirar y entretener a las personas.
“Personalización: la IA generativa se puede utilizar para crear contenido personalizado y recomendaciones para usuarios individuales en función de sus preferencias y comportamientos.
“Cuidado de la salud: la IA generativa se puede utilizar para ayudar a los médicos y profesionales de la salud a diagnosticar enfermedades y recomendar opciones de tratamiento.
“Educación: la IA generativa se puede utilizar para crear materiales educativos personalizados y sistemas de aprendizaje adaptables, que pueden ayudar a los estudiantes a aprender de manera más efectiva.
“Ciencia ambiental: la IA generativa se puede utilizar para simular ecosistemas complejos y ayudar a los científicos a comprender el impacto de los cambios ambientales en estos sistemas.
“Traducción de idiomas: la IA generativa se puede utilizar para traducir texto y voz de un idioma a otro, lo que facilita la comunicación entre personas que hablan diferentes idiomas.
“Juegos: la IA generativa se puede utilizar para crear personajes y entornos de juegos inteligentes y adaptables, lo que hace que los juegos sean más desafiantes y atractivos”.
Para ser justos, entonces pregunté: “¿Cuáles son las cosas malas que puede hacer la IA generativa?
“Creación de noticias falsas o propaganda: la IA generativa se puede utilizar para crear artículos de noticias falsas o material de propaganda, que pueden difundirse ampliamente y tener un impacto negativo en las personas o en la sociedad en su conjunto.
“Generación de imágenes o videos falsos: la IA generativa se puede usar para crear imágenes o videos falsos que parecen convincentes, pero en realidad están completamente fabricados. Esto se puede utilizar para difundir información falsa o incluso para chantajear a las personas.
“Amenazas de ciberseguridad: la IA generativa se puede utilizar para crear sofisticados ataques de phishing o malware que pueden dañar los sistemas informáticos y robar información confidencial.
“Deepfakes: la tecnología Deepfake, que utiliza IA generativa para crear videos o audios realistas de alguien que dice o hace algo que en realidad nunca hizo, puede usarse con fines maliciosos, como difundir información falsa o crear contenido comprometedor para chantajear a las personas.
“Sesgos no deseados: si los datos utilizados para entrenar modelos generativos de IA están sesgados, los resultados resultantes también pueden estar sesgados. Esto puede tener impactos negativos en las personas o comunidades que ya están marginadas.
Al leer esta lista, se me ocurrió que los humanos ya son bastante buenos en el uso de la tecnología para hacer cosas malas.
¿Pausa con qué propósito?
¿Una “pausa” de seis meses? ¿Alguien realmente cree que esta es una propuesta seria que tendrá algún impacto (excepto alguna publicidad para algunos que los medios perseguirán)? ¿Los capitalistas de riesgo dejarán de leer propuestas generativas de IA? ¿Dejarán los periodistas de jugar con la IA generativa? ¿Los estudiantes dejarán de usarlo? ¿"Todos los laboratorios de IA… harán una pausa inmediata durante al menos 6 meses"?
¿Quiénes son los campeones de la pausa? La lista de aquellos en el campo que no firmaron la pausa es tan interesante como la de aquellos que sí lo hicieron (al momento de escribir este artículo, el CEO de OpenAI, Sam Altman, no ha firmado la carta). También se debe tener en cuenta que "la carta" puede tener algunos problemas de financiación y otros problemas de autenticidad, pero ese es otro tema completamente diferente. Algunos de los firmantes de la carta tienen mucho que ganar económicamente con el éxito de GAI. ¿Qué está sucediendo?
GAI está lejos de ser perfecto. Pero puede "ayudar" de maneras increíbles. Las pausas de relaciones públicas son intentos tontos y poco realistas de llamar la atención sobre temas que se han debatido durante años. El argumento de que GAI plantea sus propias amenazas únicas depende de cómo se describa "único". Las empresas que pueden reducir el número de empleados en un 30 % verán lo “único” como algo maravilloso. A aquellos que trafican con información errónea les encantará la capacidad de GAI para producir mentiras de manera más eficiente. Lamentablemente, los desafíos regulatorios han quedado sin respuesta durante años.
Cuando me preguntaba por qué los desafíos regulatorios no habían llevado a nada, le pregunté a nuestro amigo:
“¿Por qué el Congreso no ha logrado regular la tecnología?”
Nuestro amigo respondió de inmediato:
“Falta de experiencia técnica: muchos miembros del Congreso no conocen bien las complejidades de la tecnología y es posible que no comprendan completamente las implicaciones de varias propuestas regulatorias.
“Cabildeo: las empresas de tecnología a menudo tienen un poder de cabildeo significativo y pueden influir en el proceso legislativo. Esto puede dificultar que el Congreso apruebe regulaciones que no son favorables para la industria tecnológica.
“Política partidista: la regulación de la tecnología se ha vuelto cada vez más politizada en los últimos años, con demócratas y republicanos que a menudo tienen puntos de vista opuestos sobre temas como la privacidad en línea, la moderación de contenido y la aplicación de leyes antimonopolio. Esto puede dificultar la aprobación de una legislación bipartidista.
“Tecnología que cambia rápidamente: El ritmo del cambio tecnológico puede dificultar que el Congreso se mantenga actualizado y desarrolle regulaciones efectivas que no se vuelvan obsoletas rápidamente.
“Captura regulatoria: algunos argumentan que los reguladores encargados de supervisar la industria de la tecnología pueden estar demasiado cerca de las empresas que deben regular, lo que lleva a una falta de supervisión efectiva.
¿Nuestro amigo está alucinando de nuevo, o todo esto es demasiado obvio?
Qué hacer
La respuesta aquí también depende de dónde uno se sienta. Aquellos con intereses creados en el poder de GAI (toda la tecnología, para el caso) inspeccionarán y debatirán de cerca todos los intentos de "regular" sus intereses creados. Estados Unidos tiene un sistema diseñado específicamente para proteger los intereses creados de unos pocos, no de la mayoría. Este sistema está inundado de dinero y cabilderos que ayudan a definir la agenda de cada legislador. Entonces, al más alto nivel, hasta que se cambie este "sistema", no se puede hacer mucho. Por lo tanto, la lucha regulatoria debe ocurrir en niveles mucho más bajos, en las trincheras de votación a nivel estatal y local, donde hay muchas más posibilidades de éxito. Pero esto también requiere perseverancia y dinero. El autogobierno es otro enfoque en el que las empresas declaran sus buenas misiones y se apegan a ellas. Pero hay poca evidencia de que el autogobierno corporativo realmente impacte algo cuando los accionistas piden a gritos un crecimiento rentable. ¡A veces la esperanza está en suficientes desastres para que todos digan “basta”! Pero seguro que eso no ha funcionado para tiroteos en escuelas.
¿Entonces lo que hay que hacer?
Concéntrese en el bien que GAI puede hacer, y hay mucho, mientras lamenta cómo GAI, y toda la tecnología, pueden dañarnos. “Lamentarse” es más popular entre los jóvenes que entre los mayores, así que tal vez todo esto comience en el salón de clases.