Dicen que todo vale en el amor y en la guerra.
Tal vez eso sea cierto, tal vez no.
Una cosa que sabemos con certeza es que se está produciendo una especie de batalla o guerra entre los diversos fabricantes de inteligencia artificial (IA) que buscan apresurada y desesperadamente llevar sus aplicaciones de IA generativa al mercado. Mientras que en el pasado había una sensación más tibia de prisa, hoy en día existe un impulso ardiente y abrumador para llegar a la esfera pública tan rápido como sea humanamente posible con aplicaciones generativas de IA.
En esta carrera espumosa vienen posibles acusaciones de intentar usar una aplicación de IA generativa de la competencia para reforzar y arrancar otra. Puede comparar esto con un equipo deportivo que observa furtivamente a un rival del otro lado de la ciudad y usa lo que recolectan para avanzar furtivamente en sus propios esfuerzos. Imagine esos espías deportivos que se asoman por encima de vallas altas y toman abundantes notas de lo que escanean. Esas notas se llevan de regreso a la sede y quizás se infunden en las estrategias y tácticas del equipo de espionaje.
¿Es eso justo?
En la columna de hoy, abordo esta pregunta bastante espinosa y lo hago citando un ejemplo afirmado o controvertido de quizás ese mismo tipo de reconocimiento competitivo dentro del campo tecnológico de la IA. Los principales medios de comunicación y las redes sociales recientemente presentaron una controversia sobre ChatGPT, la aplicación de IA generativa ampliamente popular del fabricante de IA OpenAI, que supuestamente se usó para ayudar en el entrenamiento de datos de otra aplicación de IA generativa emergente, específicamente, la ideada por Google y conocido como Bard.
Tenga en cuenta que dije supuestamente .
Todo tipo de idas y venidas en las noticias afirmaron audazmente que Google Bard supuestamente se sometió a un entrenamiento de datos mediante el uso de los resultados de ChatGPT, mientras tanto, una negación declarada por parte de Google de que esto sucedió se expresó y aparentemente contradijo esas afirmaciones punzantes y bastante desconcertantes (vamos también estoy de acuerdo en que si esas afirmaciones fueran realmente falsas, es estridentemente triste y desalentador que las afirmaciones obtuvieran una prominencia tan momentánea y sin restricciones en las noticias).
Parece que hay gusto por los chismes, incluso en la industria de la IA, y como titulares para el público en general debido a la reciente manía sobre la IA generativa.
Voy a ponerlos brevemente al día sobre el asunto contencioso, pero no quiero detenerme en la instancia controvertida específica momentánea. En su lugar, voy a buscar ampliar la discusión y ver un panorama más amplio con respecto a la noción general de que las aplicaciones de IA generativa son potencialmente datos entrenadas entre sí.
No nos metamos en un pantano en particular. Es útil alterar nuestra mirada y ver el bosque por los árboles. Si hay alguna lección que aprender de este excitante asunto, la esencia es que sopesar los pros y los contras de la IA generativa competidora que se usa para hacer avanzar al otro es un tema digno de consideración en general.
En todo esto viene una gran cantidad de consideraciones sobre la ética y la ley de la IA.
Hay esfuerzos en curso para imbuir los principios éticos de la IA en el desarrollo y la implementación de aplicaciones de IA. Un creciente contingente de éticos de IA preocupados y antiguos está tratando de garantizar que los esfuerzos para diseñar y adoptar IA tengan en cuenta una visión de hacer IA para el bien y evitar la IA para el mal . Del mismo modo, se han propuesto nuevas leyes de IA que se están promocionando como posibles soluciones para evitar que los esfuerzos de IA se vuelvan locos en materia de derechos humanos y similares. Para mi cobertura continua y extensa de la ética de la IA y la ley de la IA, vea el enlace aquí y el enlace aquí, solo por nombrar algunos.
Se persigue el desarrollo y la promulgación de preceptos éticos de IA para evitar que la sociedad caiga en una miríada de trampas que inducen a la IA. Para ver mi cobertura de los principios de ética de AI de la ONU, tal como fueron ideados y respaldados por casi 200 países a través de los esfuerzos de la UNESCO, consulte el enlace aquí. De manera similar, se están explorando nuevas leyes de IA para tratar de mantener la IA en equilibrio. Una de las últimas tomas consiste en un conjunto de propuestas de la Declaración de Derechos de la IA que la Casa Blanca de los EE. UU. publicó recientemente para identificar los derechos humanos en una era de IA, vea el enlace aquí. Se necesita un pueblo para mantener la IA y los desarrolladores de IA en el camino correcto y disuadir los esfuerzos encubiertos intencionales o accidentales que podrían socavar a la sociedad.
Entrelazaré consideraciones relacionadas con la ética de la IA y la ley de la IA en esta discusión.
Entrar en las malas hierbas
Empecemos por el principio de las cosas.
Para aquellos de ustedes que no están familiarizados con esta última y más popular aplicación de IA, ChatGPT es un captador de titulares que es ampliamente conocido por ser capaz de producir ensayos fluidos y mantener diálogos interactivos, casi como si lo hicieran manos humanas. Una persona ingresa un mensaje escrito, ChatGPT responde con unas pocas oraciones o un ensayo completo, y el encuentro resultante parece inquietantemente como si otra persona estuviera chateando contigo en lugar de una aplicación de IA. Esto se conoce como IA generativa, ya que genera texto o ensayos en respuesta a indicaciones ingresadas por texto. ChatGPT está hecho por la firma OpenAI, una compañía que se ha convertido en la niña mimada de la industria de la IA y atrae todo tipo de atención ávida en estos días.
Para obtener más detalles sobre cómo funciona ChatGPT, vea mi explicación en el enlace aquí. Si está interesado en el sucesor de ChatGPT, acuñado GPT-4, vea la discusión en el enlace aquí.
La IA generativa se basa en un algoritmo computacional complejo que ha sido entrenado con datos en texto de Internet y, ciertamente, puede hacer una combinación de patrones bastante impresionante para poder realizar una imitación matemática de la redacción humana y el lenguaje natural. Tenga en cuenta que ChatGPT no es sensible. No tenemos IA sensible. No se deje engañar por esos titulares estrafalarios y desvaríos de las redes sociales que sugieren lo contrario.
OpenAI lanzó ChatGPT en noviembre del año pasado. En ese momento, la mayoría del resto del campo de la IA pensó que ChatGPT iba a ser solo otra instancia de una aplicación de IA generativa disponible para el público. Es posible que no se dé cuenta de que los esfuerzos anteriores para implementar la IA generativa por parte de varios fabricantes de IA se encontraron con todo tipo de consternación. Los lanzamientos eran generalmente para una audiencia limitada de usuarios alfa y beta seleccionados. Esos eran probablemente expertos en IA.
Los expertos de la IA tendían a hurgar de inmediato en la IA generativa y buscaban que la IA hiciera cosas desagradables. Esto incluyó hacer que la IA generara ensayos que estaban llenos de lenguaje obsceno y que mostraban sesgos aparentemente indeseables. Incluso el caso de permitir el acceso al público en general tendió a producir resultados similares. La tormenta de fuego contra esas aplicaciones generativas de IA fue rápida y feroz. En general, el fabricante respectivo de IA se apresuraría a sacar la IA generativa del mercado y se disculparía por el lanzamiento prematura o prematura.
En general, se asumió que el lanzamiento de ChatGPT esperaría el mismo destino, especialmente porque se puso a disposición del público y no solo a los investigadores de IA. Al público a menudo le encanta sacudir esos lanzamientos de novatos de IA.
Y he aquí, para sorpresa de todos, incluido aparentemente OpenAI, la aplicación de IA generativa ChatGPT se convirtió en la favorita del mundo de la IA. Bueno, en realidad, ChatGPT se convirtió en el favorito nacional e internacional del mundo en general. La gente parecía ignorar problemas como generar errores, tener sesgos, producir falsedades e inventar cosas que se acuñaron como una alucinación de IA (no estoy a favor del eslogan de "alucinación de IA" y he explicado por qué es antropomorfismo excesivo de la IA, vea el enlace aquí, pero de todos modos, la terminología parece haberse endurecido en nuestra cultura).
Yikes dijo que los fabricantes de IA de la competencia, si ChatGPT fue capaz de conquistar el mundo, sería mejor que desempolvaran su IA generativa y la pusieran en el mercado también. Inmediatamente. De inmediato. Con prisa ardiente.
Hay un pequeño giro que vale la pena mencionar en este momento.
Un aspecto especialmente notable que OpenAI había hecho, aparentemente con relativo éxito, fue que habían buscado usar varias técnicas para entrenar de antemano los datos de ChatGPT para evitar generar resultados desagradables que hayan ensuciado a otros. Por ejemplo, OpenAI usó ampliamente RLHF (aprendizaje de refuerzo mediante retroalimentación humana), por lo que contrató revisores humanos para examinar los primeros días de los resultados de ChatGPT e indicar qué era correcto y qué no. La coincidencia de patrones computacionales dentro de ChatGPT se pudo ajustar hasta el punto de que gran parte de las salidas insidiosas, que de otro modo estarían extendidas, se detectarían antes de emitirse (esto no es infalible, pero proporciona un mínimo de protección).
Imagine entonces que usted es un fabricante de IA de la competencia.
Desea ansiosamente llevar su IA generativa al campo. Sus accionistas tal vez lo estén regañando por haber permitido que ChatGPT adquiera prominencia en solitario. Ahí está, alojando una aplicación de IA generativa comparable y, sin embargo, el mundo no se da cuenta de que tiene los bienes preciosos en la mano. Maldición, saca la aplicación de IA. No dejes que ChatGPT se lleve todo el oxígeno de la habitación. OpenAI y ChatGPT estaban obteniendo mucho más que cinco minutos de fama. Era hora de aprovechar parte de la fama para otras aplicaciones de IA generativa de la competencia.
Un gran problema es que si liberas tu IA generativa y eructa y desata un torrente de resultados feos y desagradables, estarás frito. Esto es lo que quiero decir. En el momento en que ponga su IA generativa a la vista del público, los leales a ChatGPT y otros cínicos buscarán fervientemente socavar su IA generativa. Quieren que ChatGPT sea el ganador. No quieren que los competidores usurpen la racha ganadora de ChatGPT.
Vas a entrar en un guante brutal y podrías terminar gravemente magullado y maltratado, más que incluso si en los días más tranquilos hubieras liberado tu IA generativa. Ahora, el centro de atención brillaba intensamente. La IA generativa que lanzas tiene que ser ideal. No solo tiene que ser tan bueno como ChatGPT, tiene que superar de alguna manera un umbral imaginario de poder caminar sobre el agua.
Si ha estado siguiendo las noticias sobre la IA durante los últimos meses, es probable que haya notado que la mayoría de las demás aplicaciones de IA generativa están siendo destrozadas por los críticos. Mientras tanto, como si viviera en las nubes, ChatGPT parece estar por encima de la refriega. Es un sueño hecho realidad para OpenAI. Es un sueño que todos los fabricantes de IA de la competencia probablemente tengan todos y cada uno de los días y noches de sus luchas diarias.
De todos modos, esto nos lleva al lanzamiento por parte de Google de su aplicación de IA generativa conocida como Bard. He cubierto los detalles sobre Bard y facetas relacionadas en mi cobertura en el enlace aquí. Solo sepa que Bard ha estado dando tumbos y recibiendo el tratamiento habitual de retorcimiento de manos y lenguas afiladas que surgen para todas las cosas que no sean ChatGPT.
En este entorno vienen las acusaciones hechas recientemente de que Bard supuestamente fue entrenado parcialmente con datos a través de salidas de ChatGPT.
Voy a desempacar eso por ti.
tirando piedras al bardo
Varios informes han indicado que supuestamente el Bardo fue entrenado en datos hasta cierto punto mediante el uso de interacciones escritas generadas por ChatGPT que se habían publicado en un sitio web llamado ShareGPT (este sitio web contiene publicaciones humanas de sus conversaciones de ChatGPT, que suman alrededor de 120,000 conversaciones publicadas en esta vez).
Según un artículo publicado en línea por The Verge , un portavoz de Google supuestamente dijo esto: "Bard no está capacitado en ningún dato de ShareGPT o ChatGPT" (según el artículo titulado "Google Denies Bard Was Trained With ChatGPT Data", Sean Hollister, 29 de marzo , 2023).
A pesar de esa negación aparentemente clara, algunos se han preguntado en voz alta si podría haber algún engaño involucrado en esa respuesta. Por ejemplo, una conjetura es que tal vez en un momento se usaron las conversaciones de ChatGPT, pero luego se retractaron de alguna manera (tenga en cuenta que si es así, esto es mucho más difícil que simplemente agitar una varita mágica). Otra idea especulativa es que tal vez se usó algún otro sitio que almacena conversaciones de ChatGPT, lo que aparentemente permite negar haber usado ShareGPT o ChatGPT per se. Etcétera.
Esa es una gran cantidad de palabras que estiran los fideos, seguro.
Dejemos de lado ese asunto y centremos nuestra atención en el panorama general.
En primer lugar, si una IA generativa competidora se va a reforzar o potenciar potencialmente al intentar reutilizar o aprovechar otra IA generativa, hay varios medios para hacerlo. Aparentemente, algunos de los enfoques se desviarían hacia posibles problemas legales, mientras que otros podrían no plantear ninguna campana legal en particular y, sin embargo, podrían interpretarse ardientemente como una violación de los preceptos éticos de IA (conocidos como principios o pautas de "ley blanda", consulte mi cobertura en el enlace aquí).
Considere estos enfoques potenciales que podrían usarse para aprovechar una aplicación de IA generativa de la competencia:
- 1) Copia. Copia completa del modelo de IA generativo subyacente y sus datos asociados
- 2) Ingeniería inversa. Aplicar ingeniería inversa al modelo de IA generativo subyacente y sus datos asociados
- 3) Perspectivas de Garner. Utilice la IA generativa de la competencia y observe sus resultados para obtener información
- 4) Uso Directo . Haga uso directo de la IA generativa de la competencia para entrenar su aplicación de IA generativa
- 5) Registro de Salidas. Registre los resultados de la IA generativa de la competencia y aliméntelos como entrenamiento para su IA generativa
- 6) Aproveche los resultados registrados. Encuentre resultados de IA generativos de la competencia registrados y aliméntelos como entrenamiento para su IA generativa
- 7) Otro
Cubriré brevemente cada una de esas posibilidades.
Copiar una aplicación de IA generativa
En el caso de copiar un modelo de IA generativa de la competencia y sus datos asociados, es probable que tal acto invoque todo tipo de consternaciones legales (a menos que sea de código abierto o se ofrezca a todos los interesados de alguna manera sin restricciones).
El fabricante de IA de origen podría afirmar que copiar su salsa secreta es una violación de los derechos de propiedad intelectual (PI) asociados con sus productos. Uno también podría imaginar que las posibilidades de ser atrapado son algo altas ya que, presumiblemente, la IA generativa competidora resultante sería inquietantemente similar a la versión de origen en términos de sus interacciones y resultados. Esto podría descubrirse y descubrirse potencialmente rápidamente. También es probable que cualquier fabricante de IA de la competencia que sea atrapado de esta manera esté condenado a la condena pública, además de las ramificaciones legales estridentes.
Ingeniería inversa Una aplicación de IA generativa
Otro enfoque consistiría en intentar aplicar ingeniería inversa a una IA generativa competidora. Una vez más, esto podría dar lugar a problemas legales. El otro ángulo es que si se corriera la voz de que un fabricante de IA había aplicado ingeniería inversa a otra aplicación de IA de la competencia, sin duda sugeriría que el fabricante de IA que copia es turbio y débil porque tuvo que recurrir a tales tonterías.
No es un buen aspecto.
Obtenga información mediante el uso de una aplicación de IA generativa
El tercer punto anterior implica obtener información mediante el uso de una aplicación de IA generativa de la competencia.
Así es como podría funcionar. Un desarrollador de IA de un fabricante de IA de la competencia decide obtener acceso diario a una aplicación de IA generativa de la competencia, actuando como si fuera parte de los usuarios públicos normales de la aplicación de IA. Proceden a usarlo como lo haría cualquier otra persona. Sin embargo, están examinando cuidadosamente la IA generativa de la competencia y evaluando cómo reacciona a una serie de indicaciones. Esto podría proporcionar información sobre cómo diseñar su aplicación de IA generativa.
Esto no parecería plantear ningún problema legal notable, aunque existen posibilidades, como que algunos podrían afirmar, que esto podría ser objeto de preocupaciones antimonopolio u otras preocupaciones jurídicamente periféricas. El enfoque podría compararse con los fabricantes de automóviles que compran un automóvil de la competencia y lo conducen por su pista de prueba. Lo hacen para ver qué puede hacer la competencia. Luego podría compararse con sus propios productos y posiblemente generar nuevas ideas de características adicionales o cambios futuros en sus automóviles.
Un argumento a favor de este tipo de esfuerzo es que tal vez ayude al crecimiento de la funcionalidad y las características para los consumidores y otros que podrían ser beneficiosos. En esencia, si las empresas competidoras ven capacidades que la gente parece querer, esas características podrían convertirse gradualmente en la norma en lugar de verse como valores atípicos costosos. Un argumento es que esto es bueno para el mercado en general (no todos estarían de acuerdo, pero se entiende la idea).
Uso directo para entrenar otra aplicación de IA generativa
En este caso de uso, una IA generativa competidora se entrena conectando otra aplicación de IA generativa y haciendo que los dos sistemas de IA generativa interactúen directamente entre sí. Tal vez el que se utiliza para llevar a cabo la capacitación es estático y no se está capacitando activamente más. Mientras tanto, la IA generativa competidora está en medio de un entrenamiento.
Vamos a referirnos a ellos como una aplicación de IA generativa llamada Delta que se está entrenando, y la otra IA generativa se llama Omega. Delta proporciona indicaciones a Omega. Omega responde, que Delta usa para entrenarse. Esto continúa quizás durante miles o incluso millones de ejecuciones. Después de un tiempo, Delta podría incluso configurarse para que Omega le envíe avisos. La respuesta de Delta podría introducirse en Omega y luego pedirle a Omega que evalúe esas respuestas. Vueltas y vueltas esto va.
Podrías intentar hacer esto, pero es difícil si lo haces a escondidas.
Podemos suponer que Omega es una IA generativa cuyo acceso y uso cuesta dinero. Todo este uso voluminoso va a generar una gran factura. Tal vez el fabricante de IA de Omega agradecería esta fuerte acuñación. Por otro lado, el fabricante de IA de Omega seguramente se daría cuenta de que algo está pasando. La tremenda cantidad de ciclos sobresaldría como un pulgar dolorido.
Es posible que no sepa que en el caso específico de intentar usar ChatGPT para tal propósito, la licencia de OpenAI dice que no puede hacer esto. Hay una declaración declarativa que indica que no puede usar ChatGPT para desarrollar modelos de IA que compitan con OpenAI.
En particular, eche un vistazo a la Sección 2c de los Requisitos de uso para ChatGPT publicados en línea por OpenAI y especialmente la subsección iii:
- “(c) Restricciones. No puede (i) usar los Servicios de una manera que infrinja, se apropie indebidamente o viole los derechos de cualquier persona; (ii) desensamblar, descompilar, descompilar, traducir o intentar descubrir el código fuente o los componentes subyacentes de los modelos, algoritmos y sistemas de los Servicios (excepto en la medida en que tales restricciones sean contrarias a la ley aplicable); (iii) utilizar los resultados de los Servicios para desarrollar modelos que compitan con OpenAI; (iv) excepto según lo permitido a través de la API, usar cualquier método automatizado o programático para extraer datos o resultados de los Servicios, incluido el raspado, la recolección web o la extracción de datos web; (v) representar que la salida de los Servicios fue generada por humanos cuando no lo es o viola nuestras Políticas de uso; (vii) comprar, vender o transferir claves API sin nuestro consentimiento previo; o (viii) si está utilizando la API en relación con un sitio web o una aplicación dirigida a niños, envíenos cualquier información personal de niños menores de 13 años o la edad aplicable de consentimiento digital. Cumplirás con cualquier límite de tarifa y otros requisitos en nuestra documentación. Puede usar los Servicios solo en las geografías actualmente admitidas por OpenAI”.
Grabe las salidas y use esas grabaciones para entrenar una aplicación de IA generativa
Otro enfoque posible consiste en utilizar una aplicación de IA generativa para producir una gran cantidad de resultados que luego se graban para su reproducción. Entonces, solo obtienes la aplicación de IA generativa de la competencia para hacer toneladas y toneladas de resultados que se alimentan en una serie de archivos. Esos archivos se utilizan posteriormente como datos de entrenamiento para su IA generativa.
La diferencia entre este enfoque y el anterior que conecta dos aplicaciones de IA generativas es que puede usar las salidas grabadas cuando lo desee. Las dos aplicaciones de IA generativa no funcionan en tiempo real de forma directa. En su lugar, registra los resultados de la IA generativa de la competencia y luego los alimenta a su IA generativa.
Todavía nos enfrentamos con la cuestión de cuánto de esto podrá recolectar. Sin duda, esto generaría una factura considerable a medida que utiliza la IA de la competencia para producir los resultados voluminosos. Si solo hizo un regate de salidas, esto probablemente sería insuficiente como un conjunto de entrenamiento de datos. Es mejor que no intente tocar el tercer riel si solo obtiene una cantidad marginal de datos para uso de entrenamiento.
También es probable que el fabricante de IA generativa de la competencia tenga una cláusula de licencia que establezca que usted no debe hacer esto.
Aproveche los resultados ya registrados para entrenar una aplicación de IA generativa
Cubriré esto como el último de los enfoques que he identificado (también hay otros enfoques posibles).
Puede intentar encontrar resultados grabados de una aplicación de IA generativa de la competencia que quizás se haya publicado en Internet. En este caso, podría señalar que no utilizó directamente la aplicación de IA generativa de la competencia. Otras personas lo hicieron. Esas personas publicaron sus resultados generados. Todo lo que hizo fue escanear los resultados publicados y luego usó esas publicaciones para ayudar en el entrenamiento de datos de su IA generativa.
Si esto viola una cláusula de licencia del fabricante de IA generativa de la competencia es algo confuso. Tendría la ventaja de que, de hecho, no usó la aplicación de IA de la competencia. Nunca iniciaste sesión. Nunca registraste ninguna salida. Nunca conectaste tu IA generativa a la IA generativa de la competencia.
Si se hace una acusación de que eludiste el espíritu de la cláusula, esto también puede ser contrarrestado. Por ejemplo, suponga que está usando su escáner de texto cotidiano para buscar texto en Internet que podría usarse para entrenar su IA generativa. El escáner se encontró con un montón de texto útil. El escáner no tenía medios viables para detectar que el texto era un resultado grabado de una IA generativa competidora.
A todos los efectos, el texto publicado se encontraba en medio de la enorme cantidad de texto publicado en Internet. Esto trae a colación un aparte relacionado con la Ley de IA. He cubierto que algunos insisten en que el escaneo de texto de Internet para el entrenamiento de IA generativa es una violación de los derechos de Propiedad Intelectual (PI) y probablemente también conduzca al plagio, vea mi análisis en el enlace aquí. Por lo tanto, esto trae a colación una especie de ironía. Es posible que la IA generativa de la competencia haya pisoteado los derechos de propiedad intelectual de aquellos que publicaron sus historias y narraciones de texto, mientras que aparece otra IA generativa y hace algo similar al texto generado por una IA generativa de la competencia.
Hace que tu cabeza dé vueltas.
De todos modos, una pregunta es si el volumen de las salidas grabadas de la IA generativa de la competencia servirá de mucho. Si el volumen es relativamente bajo, salir de su camino para encontrarlo y usarlo parecería un pequeño error de cálculo para hacerlo a propósito. No vale la pena el dolor de cabeza.
Conclusión
Unas pocas observaciones finales por ahora sobre este espinoso tema.
Un punto de vista es que para que nosotros, como humanidad, alcancemos la Inteligencia General Artificial (AGI, por sus siglas en inglés), la alardeada IA que sería sensible o similar a la humana, tendremos que improvisar muchos otros sistemas de IA más limitados, vea mi discusión sobre esto en el enlace aquí .
Si cree que lograr AGI es para el mejoramiento de la humanidad, tal vez queramos aplicaciones de IA generativa para ayudar esencialmente a arrancar otras aplicaciones de IA generativa. Cuanto más, mejor. Deberíamos alentar a los fabricantes de IA a compartir y compartir por igual. Los legisladores y los reguladores podrían querer idear nuevas leyes de IA que permitan que se produzca este acuerdo de intercambio. Incluso podría establecerse como un requisito en lugar de un carácter voluntario.
Surgen muchos contraargumentos.
Por ejemplo, tal vez esto podría precipitarnos indebidamente hacia el AGI, y el AGI nos tomará con la guardia baja. He examinado los riesgos existenciales proclamados de AGI en el enlace aquí. Los críticos tenderían a argumentar que no deberíamos engrasar los patines hacia AGI. Necesitamos tiempo suficiente y un ritmo adecuado para preparar el mundo para AGI. Otro problema es si es justo que los fabricantes de IA estén dispuestos a entregar sus logros de IA ganados con tanto esfuerzo, por lo que deberían ser compensados por sus productos. Etc.
Aquí hay un último giro para ti.
Algunos se han preocupado de que la IA generativa llene Internet. La idea es sencilla. La gente ejecutará la IA generativa y publicará los resultados en Internet. Esto también se puede hacer de forma automatizada. Gradualmente, Internet será dominado por texto generativo producido por IA y otros modos de salida. No podremos discernir lo que los humanos idearon y lo que hizo la IA. Para ver mi análisis de la IA generativa que obstruye la suposición de Internet, vea el enlace aquí. Para poder o no distinguir los resultados creados por humanos de los de IA, consulte el enlace aquí.
El enigma general es que Internet podría estar compuesto casi en su totalidad por salidas generativas de IA. En ese caso, cualquier intento de entrenar la IA generativa en el texto u otros artefactos en Internet no tendrá más remedio que utilizar otras salidas de IA generativa. No pueden evitarlos particularmente. No se puede discernir cuál es cuál, además de que la preponderancia son las salidas generativas de IA.
Comida para el pensamiento.
Hablando de pensamientos pesados, supuestamente Platón dijo esto sobre Sócrates: “Ahí tienes la sabiduría de Sócrates; él mismo no está dispuesto a enseñar, pero anda aprendiendo de los demás y ni siquiera les está agradecido”.
Aquellos que opten por usar otra IA generativa, si es que lo hacen, como un medio para avanzar en su IA generativa, al menos deberían admitir abiertamente haber hecho tales esfuerzos. La guinda del pastel sería un sincero agradecimiento y una palmadita en la espalda (o más).