Imperio de la IA
El video y la transcripción en inglés se encuentran en este enlace. Aún no leí el libro, pero me parece muy interesante la comparación con los imperios y sus saqueos, así como la descripción que hace de la empresa y sus empleados.
Desmantelando el imperio de la IA
Años antes de que OpenAI se convirtiera en un nombre familiar, Karen Hao fue una de las primeras periodistas en tener acceso a la empresa. Lo que vio cuando lo hizo la inquietó. A pesar de un nombre que indicaba transparencia, los ejecutivos eran esquivos, la cultura secreta. A pesar de anunciar públicamente una misión para construir AGI, o inteligencia general artificial, los líderes de la empresa realmente no podían decir qué significaba eso, o cómo definían AGI en absoluto. Las semillas de una startup que pronto se vería dividida por luchas internas, apresurándose a ser la primera en el mercado con una tecnología comercial y una narrativa poderosa, y liderada por un líder aparentemente sin escrúpulos, estaban todas allí.
OpenAI consideró que la historia resultante de Hao era tan negativa que se negó a hablar con ella durante tres años. Probablemente más gente debería haberla leído. Desde entonces, OpenAI ha lanzado Dall-E y ChatGPT, ha acumulado una reserva de capital de riesgo histórica a nivel mundial y ha establecido el estándar para la IA generativa, el producto tecnológico definitivo de la década de 2020. Y Hao ha estado en las trincheras, siguiendo de cerca, investigando a la empresa en cada paso del camino. El producto de todo ese reportaje, su nuevo libro, Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI, ya está oficialmente a la venta. Es excelente.
De hecho, me atrevería a decir que si estuvieras buscando entender el Silicon Valley moderno, el auge de la IA y el impacto de ambos en el mundo en general leyendo solo un libro, ese libro debería ser Empire of AI.
Así que, dado que no podría estar más en la línea de Blood in the Machine, invité a Hao a unirse a mí para la primera transmisión en vivo de BITM, que celebramos ayer por la tarde, para discutir sus temas y revelaciones. Salió genial, en mi opinión. No estaba seguro de cuánta gente se pasaría, ya que nunca antes había probado una transmisión en vivo aquí, pero al final había cientos de ustedes en la sala, dejando comentarios y preguntas reflexivas, avivando una gran discusión.
Tenía la intención de tal vez hacer de esto mi primer podcast de BITM también, pero tal vez me excedí un poco; la calidad del audio no siempre es excelente, y tendría que editar una nueva introducción, creo, ya que estaba un poco disperso. SIN EMBARGO, la conversación fue tan buena que, además de volver a publicar el video de arriba, también lo transcribí a continuación, para que puedan leerlo como una sesión de preguntas y respuestas. Perdonen cualquier error tipográfico restante. (Tampoco transcribí la parte de preguntas y respuestas del público). Como siempre, todo este trabajo es posible 100% gracias a los suscriptores de pago de este boletín. Si valoran el trabajo como este (entrevistas en profundidad con personas como Hao, que están luchando la batalla necesaria), consideren convertirse en suscriptores de pago. Un millón de gracias generadas por humanos a todos los que ya lo hacen.
BLOOD IN THE MACHINE: Bien, saludos y bienvenidos al primer espectáculo multimedia de Blood in the Machine, con Karen Hao. Karen es una periodista tecnológica extraordinaria. Ha sido reportera de MIT Technology Review y The Wall Street Journal. Y actualmente escribe para The Atlantic, así como para otros lugares. Dirige la serie AI Spotlight del Pulitzer Center, donde capacita a periodistas de todo el mundo sobre cómo cubrir la IA. Y después de leer este libro, me alegro mucho de que seas tú quien esté haciendo la capacitación y no ciertos otros periodistas en este ecosistema; no daremos nombres. Así que felicitaciones por todo eso. ¿Lo tengo todo? ¿Recibí todos los elogios?
**Karen Hao:**Sí [risas].
Bien, perfecto. Pero lo más importante, para nuestros propósitos de hoy, Karen ha escrito este libro, Empire of AI, Dreams and Nightmares in Sam Altman's Open AI. Y sale esta semana. Y permítanme decir esto sin rodeos. Esta no es la entrevista a la que quieres venir para hacer preguntas difíciles y atrapar a Karen, porque simplemente me encanta este libro.
Personalmente, esperaba que alguien escribiera este libro. Creo que es realmente una verdadera hazaña de reportaje y análisis cultural y crítica económica y social. Es una mirada panorámica, no solo a la empresa líder en IA generativa, sino a los últimos cinco a 10 años de algunos de los vientos en contra tecnológicos, económicos y culturales más importantes en toda la tecnología, así como a cómo están impactando, remodelando y perjudicando a las comunidades de todo el mundo.
Si tienes tiempo para leer solo un libro sobre la IA y sus implicaciones globales y políticas, entonces este es el indicado. Honestamente, este es el indicado. Y profundizaremos en por qué en solo un segundo. No puedo recomendarlo lo suficiente. Bien. Fin de los elogios efusivos. Karen, muchas gracias por unirte.
Muchas gracias por invitarme, Brian. Y es un honor ser parte de esta primera transmisión en vivo. Leo religiosamente todos tus números. Y también es muy eficaz e inspirador para mí hacer el trabajo que estás haciendo. Así que gracias.
Bueno, gracias. Y espero sumergirme. Así que hagámoslo ahora mismo. Y comencemos con el título. Bien, tenemos este libro que se llama Empire of AI, no digamos “OpenAI, la empresa que lo cambió todo”. Es muy explícito, creo, esta formación, que creo que realmente pone en contexto toda la historia por venir en una lente bastante útil. Entonces, ¿por qué es eso? ¿Por qué se llama Empire of AI? ¿Por qué este libro sobre OpenAI comienza con este marco de imperio?
Sí, lo que me he dado cuenta al informar sobre OpenAI e IA durante los últimos siete años es que necesitamos comenzar a usar un nuevo lenguaje para realmente captar el alcance y la magnitud del poder económico y político que ahora tienen empresas como OpenAI. Y finalmente llegué a la conclusión de que la única palabra real que captura todo eso es imperio.
Estas son nuevas formas de imperio, las empresas de IA. Y la razón es que en la larga historia del colonialismo europeo, los imperios de antaño tenían varias características. Primero, reclamaban recursos que no eran suyos y creaban reglas que sugerían que, de hecho, eran suyos.
Explotaban mucha mano de obra, es decir, no pagaban a muchos trabajadores o les pagaban muy, muy poco por la mano de obra que fortalecería el imperio. Competían entre sí de esta manera moralista donde el Imperio Británico decía que era mejor que el Imperio Francés, o el Imperio Holandés decía que era mejor que el Imperio Británico, y toda esta competencia finalmente aceleró la extracción, la explotación, porque solo su imperio tenía que estar a la cabeza de la carrera liderando al mundo hacia la modernidad y el progreso.
Una característica de los imperios es que todos tienen misiones civilizadoras y, ya sea retórica o si realmente lo creían, enarbolarían esta bandera de que estamos saqueando el mundo porque este es el precio de llevar a todos al futuro. Y los imperios de la IA tienen todas estas características. También están reclamando recursos que no son suyos, como los datos y el trabajo de artistas, escritores, creadores. Y también diseñan reglas para sugerir que en realidad es suyo.
Oh, todo está en Internet. Y la ley de derechos de autor es de uso justo. Y también explotan mucha mano de obra en todo el mundo, en el sentido de que no pagan muy bien a los contratistas que literalmente trabajan para las empresas para limpiar sus modelos y hacer todo el etiquetado y la preparación de los datos que entran en su modelo.
Y, en última instancia, están creando tecnología de automatización laboral. Por lo tanto, también están explotando la mano de obra en el otro extremo del proceso de desarrollo de la IA, así como en la implementación de estos modelos, donde OpenAI literalmente define AGI como tecnología altamente autónoma. Como sistemas que superan el trabajo más valioso económicamente de los humanos. Por lo tanto, sus tecnologías están suprimiendo la capacidad de los trabajadores para movilizarse y exigir más derechos. Y lo hacen en esta carrera agresiva donde dicen, hay un tipo malo, nosotros somos los buenos, así que permítanos seguir avanzando y ser el número uno.
Y una de las cosas que menciono en el libro es que los imperios de antaño eran extremadamente violentos y no tenemos ese tipo de violencia abierta con los imperios de la IA hoy en día, pero necesitamos entender que los imperios modernos se verán diferentes a los imperios de antaño porque ha habido 150 años de progreso en materia de derechos humanos, por lo que los imperios modernos tomarán ese libro de jugadas y lo trasladarán a lo que sería aceptable hoy en día, pero una de las cosas que no pongo en el libro en sí, pero que comencé a usar como analogía es que, si piensas en la Compañía Británica de las Indias Orientales, originalmente era una empresa que participaba en una actividad económica mutuamente beneficiosa en la India.
Y en algún momento hubo un cambio que se produjo cuando obtuvieron suficiente influencia económica y política como para poder comenzar a actuar en su propio interés sin absolutamente ninguna consecuencia. Y fue entonces cuando evolucionaron drásticamente hacia el poder imperial.
Y lo hicieron con el respaldo de la corona británica. Lo hicieron con los recursos de la corona británica, con la licencia de la corona británica. Y ahora estamos en un momento, finalicé el manuscrito a principios de enero, y luego la administración Trump llegó al poder y literalmente ahora estamos viendo el mismo punto de inflexión sucediendo, donde estas empresas ya tienen un poder tan profundo y son más poderosas que la mayoría de los gobiernos de todo el mundo.
Y anteriormente, realmente el único gobierno que no necesariamente tenía poder completo era el gobierno de los Estados Unidos. Y ahora hemos llegado a ese punto en el que la administración Trump está respaldando completamente a estas empresas, permitiéndoles hacer lo que quieran, completamente sin fricciones. Y así también hemos llegado al punto en que las empresas se han convertido en potencias imperiales donde pueden hacer cualquier cosa en su propio interés sin consecuencias materiales.
Sí. Bien dicho. ¿Y qué ejemplo más profundo de estas tendencias imperiales de las que estás hablando que el hecho de que tu libro se publique la misma semana en que literalmente se está impulsando un proyecto de ley a través de la conciliación que dice que ‘los estados no pueden escribir más leyes sobre la IA. Vamos a prohibir la legislación en torno a la IA. Esto es demasiado importante’. Realmente encaja en esa definición de la que estabas hablando bastante bien, donde lo justificarán. Tienen esta letanía de justificaciones de, ‘bueno, es demasiado complejo. Queremos legislar a nivel federal’, lo que no van a hacer, por supuesto. Pero es solo una excusa, de nuevo, como dijiste, para que esto se transmute más plenamente en imperio.
Y luego, la segunda parte es que la semana pasada estuvieron en Arabia Saudita con imperios literales, ¿verdad? Simplemente haciendo acuerdos de miles de millones de dólares al mismo tiempo que están trabajando para socavar cualquier capacidad de los estados para participar en el proceso democrático cuando se trata de la IA. ¿Qué opinas de todo eso?
Quiero decir, ¿y fue la semana pasada o la semana anterior, que OpenAI también anunció OpenAI para países y dijo explícitamente en ese anuncio, queremos construir rieles democráticos de IA para que otros países construyan sobre ellos?
Así que somos el proveedor de democracia en todo el mundo. Y si te registras en nuestro programa, una vez más, te traeremos al futuro con todas las maravillosas normas sociales, costumbres de los Estados Unidos de América y quiero decir que es exactamente lo que dijiste, como estas son todas ilustraciones del juego final que están jugando, que es que no están aquí para traer la democracia, no están trayendo la modernidad a todos.
Están aquí para acumular poder y continuar acumulando influencia económica y política en todo el mundo, no solo en los Estados Unidos, de tal manera que cuando, ya sabes, están tratando de pisar el acelerador mientras Trump está en el cargo y tratando de alcanzar la filosofía de escape para que cuando ya no esté en el cargo, si vuelve un gobierno demócrata, al Partido Demócrata, y hay diferentes personas con diferentes ideas en la Casa Blanca que podrían no ser tan permisivas y habilitadoras de sus visiones. Quieren llegar a un punto en el que ya no importe. Quieren hacer sentir a todos que hay una inevitabilidad.
Los datos ya están construidos. La infraestructura ya está instalada. No puedes revertir eso. Y así que solo tienes que continuar en lo que parece ser un camino inevitable.
Sí, es realmente notable. Y una forma en que pienso sobre lo que está sucediendo con la IA es como una amplificación de cosas que se han intentado antes. Ya sabes, con el modelo de algo como Uber, tratando de hacer captura estatal a nivel municipal para imponer sus anulaciones de la ley de taxis y tratar de obtener exenciones y tratar de expandirse, y no ser rentable durante mucho tiempo y simplemente depender de montones de inversión hasta que puedas escalar. Y OpenAI, para mí, parece estar diciendo que vamos a hacer todo eso y más. Como: ¿Podemos simplemente explotar todo esto por completo?
Creo que es una observación y un mecanismo de encuadre tan inteligente para impulsar este libro, que realmente no essoloanálisis. Es una historia narrativa. Y eso es lo que más me gusta de este libro, es que está estructurado de la manera, es casi como, furtivo, en la forma en que muchos ‘libros de tecnología’ lo están, donde es como, bien, vamos a leer sobre la fundación de Sam Altman y OpenAI, y no eres pesado, lees sus acciones y sobre lo que está sucediendo. Y ellos hablan por sí mismos. Y puedes hacer tus propios juicios en muchos casos.
Pero creo que necesitamos retroceder y mirar quién está en el centro de todo esto, en el hombre que se imagina a sí mismo como el emperador. Este nuevo y aspirante emperador Smol Bean, tal vez sea una forma de describirlo. Pero es Sam Altman, por supuesto. Así que no puedes escribir un libro sobre OpenAI sin hablar de Sam Altman.
Y creo que tu trato hacia él es, sé que tuiteó de manera sugerente hace un par de semanas sobre, como, hay dos grandes libros que saldrán sobre OpenAI que son realmente justos, lo que implica que hay otro al que no deberías escuchar, lo que para mí es el mejor respaldo que podrías esperar obtener, ¿verdad? Como Sam Altman diciendo, aléjate de este libro porque alguien ha cavado un poco demasiado profundo.
Pero fuiste uno de las primeras periodistas en ser invitada a las instalaciones de OpenAI antes de que ChatGPT se convirtiera en un fenómeno, un fenómeno global, antes de este auge de financiación en constante expansión y aceleración que está sucediendo con la IA. Estabas en MIT Tech Review en ese momento, y estabas haciendo un perfil de la empresa. Así que echemos un vistazo a esa era y, como, ¿cuáles fueron tus impresiones entonces?
Porque te invitaron o aceptaron hacer un perfil, ¿cómo fue eso?
Sí. Así que fui a integrarme en la empresa en agosto de 2019 y solo un poco de historia de cómo era OpenAI entonces, porque realmente no estaba en absoluto en la conciencia pública. Fue fundada a finales de 2015 como una organización sin fines de lucro. Y en 2019, hubo un par de cosas que sucedieron. Una fue o en realidad incluso comenzando en 2018.
Lo primero fue que originalmente fue cofundada por Elon Musk y Sam Altman. Elon Musk se va en 2018. Y luego, a principios de 2019, OpenAI, como una organización sin fines de lucro que dijo que regalaría toda su investigación y la abriría al público, de repente retiene una pieza de investigación. Y en ese momento, era el modelo GPT-2, dos generaciones antes de ChatGPT.
Luego Sam Altman, o luego hay una conversión extraña donde la organización sin fines de lucro de repente tiene una con fines de lucro anidada dentro de ella. OpenAI lo llama un beneficio limitado. Es un término inventado que inventan para describir una con fines de lucro que tiene, donde los inversores solo obtienen una cierta cantidad de los rendimientos. Así que hay un techo en los rendimientos que tienen. Y luego Sam Altman se convierte en el CEO de esta nueva entidad de beneficio limitado. Y había mucha actividad sucediendo donde como reportera que cubría la investigación de IA de vanguardia en MIT Tech Review, ya había tenido mis ojos puestos en OpenAI como una organización sin fines de lucro y el hecho de que habían puesto una estaca en el suelo diciendo que vamos a hacer investigación de IA de vanguardia y vamos a ser un gran proyecto. Vamos a ser muy importantes en este espacio. Y cuando comenzaron a hacer todo esto, pensé, huh, eso es un poco interesante.
Creo que podría ser algo que deberíamos investigar porque estaban ganando cierta influencia en la forma en que se estaba llevando a cabo la investigación de IA. Estaban ganando cierta influencia en el mundo de las políticas porque fueron muy, muy tempranos en comenzar a construir relaciones en DC. Y pensé que si esta empresa ahora se está transformando en algo diferente de lo que fue fundada originalmente, y ya tiene estas esferas de influencia, entonces debería simplemente mirar un poco más de cerca eso y ver cómo podría tener efectos dominó en esas esferas de influencia.
Y así terminé presentando a la empresa esta idea: ‘oye, parece que están sucediendo muchos cambios. Creo que parece que están listos para un perfil. Estuvieron de acuerdo. Querían reintroducirse al público. Y así me dijeron, ven y únete a nosotros durante tres días dentro de la empresa. Y luego, una vez que ya habíamos hecho los arreglos, hicieron otro anuncio que señalaba un gran cambio, que era que consiguieron un nuevo patrocinador, Microsoft, que iba a dar a OpenAI mil millones de dólares.
Así que cuando llegué a la empresa, lo que fue interesante, la primera impresión, entré pensando, déjame simplemente tomar lo que dicen al pie de la letra, que están tratando de hacer esta misión donde están asegurando que AGI beneficie a toda la humanidad. Y déjame simplemente tomar eso al pie de la letra y pedirles que articulen un poco sobre cómo planean realmente hacer eso.
Y así, una de las primeras reuniones que tuve fue una entrevista con Greg Brockman e Ilya Setzkever, el CTO y científico jefe en ese momento, donde dije, ¿por qué gastar miles de millones de dólares en AGI? ¿Qué es AGI? ¿Por qué no estamos simplemente invirtiendo miles de millones de dólares en IA u otros tipos de problemas que enfrenta la humanidad? Y lo que rápidamente noté fue que no podían definir qué era AGI. No podían articular una visión de lo que era, cómo se vería, a quién serviría.
Realmente no podían decirme cómo AGI de repente haría todas las cosas que dijeron que haría, como brindar atención médica de mayor calidad a todos, resolver el cambio climático. Yo estaba como, ¿pueden simplemente explicarme un poco paso a paso cómo lo haría? Y ellos dijeron, bueno, quiero decir, como que el punto es que no lo sabemos. Y este es un esfuerzo científico, pero vamos a llegar allí. Y fue simplemente extraño. Como que seguía tratando de pincharlos en los detalles y no obtenía ningún detalle.
Y luego comencé a notar que muchos de los matices en la empresa estaban en tensión con lo que decían públicamente. Así que en realidad eran muy, muy reservados cuando estaba allí. Y yo estaba como, espera un minuto, pero pensé que se suponía que debías ser completamente transparente y abierto.
OpenAI, sí.
Sí, y eran muy, muy competitivos, a pesar de que habían expresado públicamente que uno de sus valores más importantes era la colaboración. Y los ejecutivos me dijeron: es necesario que seamos los primeros en AGI. Nuestra misión se desmorona y nuestro propósito se desmorona si no somos los primeros.
Y los sondeé mucho sobre esto. Bueno, ¿cómo puedes ser el primero y también ser colaborativo? ¿Y cómo puedes ser el primero y también ser transparente? Y también, ¿por qué estás tratando de ser el primero? No entiendo completamente.
Y sí, fue simplemente, de nuevo, una completa falta de respuestas articuladas. Y así, después de esa experiencia, comencé a entrevistar a mucha más gente. Así que probablemente entrevisté a más de una docena de empleados y ejecutivos cuando estaba dentro de la empresa, entrevistas sancionadas por el equipo de comunicaciones.
Y luego hice un montón más de entrevistas, alrededor de dos docenas que no fueron sancionadas por el equipo de comunicación, solo tratando de entender lo que realmente está sucediendo en la organización. Y esencialmente lo que escribí en la pieza fue que hay una falta de coincidencia entre lo que proyectaban, y lo que proyectaban le ha dado mucha buena voluntad, le ha permitido acumular suficiente capital, y lo que estaba sucediendo puertas adentro.
Y en última instancia, OpenAI no estaba contenta con eso. No estaban contentos con la pieza que salió, sí.
Me parece que lo que estaba sucediendo es que se habían estado saliendo con la suya en estas comunidades, en las comunidades de inversores de Silicon Valley, ondeando estos términos. Y fue suficiente. Fue suficiente para desbloquear algo de capital aquí. Fue suficiente para reclutar un nuevo tipo de lote de talento. Pero se desinfló una vez que fue expuesto a cualquier tipo de rigor.
Y solo para recordarles a todos, esto fue hace seis años, hace cinco o seis años. Esto fueantesde todo el alboroto. Porque creo que también existe esta narrativa en torno a Open AI de que, bueno, eran todos estos tipos bien intencionados que simplemente, ya sabes, tal vez se corrompieron por el poder. Tal vez solo están tratando de moverse demasiado rápido o lo que sea.
Pero, y he hecho un poco de trabajo en esto yo mismo y un informe que hice para el AI Now Institute, pero, parecía así desde el principio. Y eso es una cosa sobre la que tengo curiosidad en tu investigación, no estuvimos allí. Nunca sabremos cómo era la escena real en esos primeros días de hacer tratos con los inversores, pero cuando están lanzando OpenAI con Elon Musk y algunos de esos investigadores y tipos de Amazon y no es como una coalición sin fines de lucro de ‘vamos a salvar el mundo’. Son algunos de los pesos pesados en VC y, y grandes empresas tecnológicas allí.
Entonces, el grado en que este impulso para construir AGI, ¿era una misión con fines de lucro desde el principio? ¿O simplemente existía esta idea de que esto es algo grande? Esto es algo como, si soy Sam Altman, puedo conseguir que Elon Musk se una a esto, tal vez. Y luego podemos construir algo grande y resolveremos los detalles más tarde. Porque eso es seguro lo que me parece a mí.
Sí, creo que Altman es muy estratégico. Juega a largo plazo. Y también es muy bueno para entender a la gente y así, ya sabes, abro el libro con una cita de una de sus publicaciones de blog al principio, cuando es joven, donde dice que la mejor manera de motivar a la gente es construyendo una religión y luego la mayoría de la gente se da cuenta de que la mejor manera de construir una religión es construir una empresa. No es la cita exacta, parafraseo, pero creo que entendió muy pronto que la manera de atraer las cosas que necesitas para hacer grandes cosas, y siempre se ha considerado a sí mismo como alguien que hace grandes cosas, es tener una ambición de movimiento.
Una ambición que reúne talento, capital, recursos que evita la regulación. Y así que originalmente creó una organización sin fines de lucro con esta ambición de movilización, de que AGI beneficie a la humanidad. Creo que, ya sabes, nunca encontré una prueba irrefutable de ‘¿Siempre pensó que OpenAI sería con fines de lucro?’
No puedo decirlo con certeza, pero sé que fue muy cuidadoso en la forma en que elaboró la empresa para tratar de poner en marcha esto. Y hubo dos personas que realmente reclutó que esto le permitió reclutar mejor.
La primera fue Elon Musk. Así que abro el libro después del prólogo con la forma en que realmente atrajo tácticamente a Musk al reflejar mucho del lenguaje que Musk tenía en torno a la IA. Musk estaba realmente preocupado en ese momento por Google. Estaba realmente obsesionado con Demis Hassabis y pensó que Demis Hassabis era malvado y que si la IA fuera desarrollada por Hassabis, saldría totalmente mal.
Y estaba genuinamente temeroso de esta noción de que la IA de alguna manera mataría a toda la humanidad. Y así que Altman realmente cultivó una relación con Musk repitiendo todas estas cosas. Como, ‘Creo que sería realmente preocupante si Google pudiera desarrollar esto. Y creo que tienes razón en que deberíamos estar pensando absolutamente en los aspectos pesimistas de esto. Y, como, me parece que para competir con Google y asegurarnos de que no nos matemos, necesitamos construir algún tipo de contrapeso a Google’.
Solo está dejando las migajas de pan. Me encanta cómo haces eso. Esa fue una de mis partes favoritas de la primera parte del libro porque estás compartiendo los correos electrónicos y puedes ver a Altman simplemente imitando ellenguajede Musk incluso. Y es una señal muy temprana, a la que vuelves al final cuando volvemos a la especie de drama de la sala de juntas que ahora es tan famoso, pero simplemente ves como que este tipo está dispuesto a ser bastante descarado en cómo despliega estas tácticas para manipular a la gente.
Sí, me alegro mucho de que lo hayas notado porque yo, cuando estaba revisando el reportaje, pensé, ‘guau’. Estaba tan cerca de las cosas que Musk estaba diciendo en ese momento. Así que sí, así que junté un montón de ellos lado a lado para simplemente permitir que el lector absorbiera eso sin necesariamente decir explícitamente, ‘esto es lo que está sucediendo’.
Pero sí, así que Musk terminó siendo la primera persona que atrajo. E Ilya Stutzkever fue la segunda persona clave que atrajo con la misión. También estaba Greg Brockman, pero Greg Brockman ya estaba como, estoy a bordo, Sam, somos amigos. Tú dices lo que quieres que haga y yo lo haré.
A Ilya Sutskever, Sam Altman le envió un correo electrónico frío. Estaba trabajando como científico investigador en Google. Ya era millonario en ese momento, ya era un investigador extremadamente premiado y prestigioso dentro del campo de la IA. Y creo que Altman sabía que no podía superar a Google en salario. No podía superar en otros tipos de cosas porque OpenAI realmente no tenía tantos activos en ese momento, pero podía apelar al sentido de propósito y misión de Sutzkever.
Y así que Altman terminó orquestando esta cena, que ahora es una gran parte de la mitología fundacional de OpenAI, donde trae a Elon y luego a un montón de gente, así como a Ilya Sutskever. Y Sutskever solo dijo que sí a la cena porque escuchó que Musk estaba allí. Y luego terminó diciendo que sí a unirse a OpenAI debido a la misión. Así que puedes ver cómo, desde el principio, Altman conocía todas las piezas y los movimientos de ajedrez que tenía que jugar para poner a todos en formación.
Y luego, a medida que ciertos elementos de la estructura de OpenAI, como la organización sin fines de lucro, esto y aquello, comenzaron a perder relevancia y utilidad, es cuando las cosas cambian. Es como, bien, ya tenemos el talento ahora. Ya tenemos la marca de Elon ahora. Así que la organización sin fines de lucro no es tan valiosa. Así que ahora pasemos a la siguiente fase. Pongamos una con fines de lucro en la organización sin fines de lucro porque ahora lo que necesitamos es dinero. Y esa es como la siguiente era. Y así que OpenAI ha evolucionado mucho una y otra vez en función de lo que Altman piensa que será el vehículo adecuado para obtener lo que necesita en ese momento.
Sí. Y es realmente salvaje ver a lo largo del libro, las formas en que simplemente hablará sobre AGI y el riesgo X, dependiendo de en qué habitación esté, y creo que esa es una visión realmente importante que se cristaliza a lo largo de este libro que, sobre todo, AGI tiene utilidad como un medio de, de nuevo, como dijiste, liderar la misión o, atraer inversores. Pero la idea, esta idea y esta promesa, estaban aquí primero.
Y también hablé mucho sobre esa carta, esa línea en la carta, sobre esta promesa de que podemos automatizar “el trabajo más valioso económicamente”. A eso se reduce. Y es por eso que tantas empresas están salivando por ello. Y luego creo que otra cosa que es muy interesante es la forma en que los vemos aprovechar, que es la visión central de OpenAI, que es simplemente “Más”, ¿verdad?
Y una vez más, creo que es realmente interesante que esté en esta narrativa de imperio porque es simplemente ‘más, más, más’. Se dan cuenta de que pueden hacer lo que nadie más ha podido hacer. Si simplemente conectan los modelos a más computación, más recursos, más datos.
Me encanta esa parte del libro donde se dan cuenta de que su, su secreto completo que han desbloqueado puede escribirse en un grano de arroz. Es escalar, eso es todo. Como, eso es lo que estamos haciendo. Pero para escalar, necesitas tener una especie de formación imperial. Tienes que ser capaz de realizar la conquista de nuevas áreas, de nuevas arenas para obtener esos datos, para obtener esa energía. Y eso es lo que creo que es realmente asombroso del libro es que luego tomamos, creo que tomamos tres tipos diferentes de zoom out, uno para mirar el trabajo que DAIR y los investigadores que fueron despedidos de Google, incluyendo a Timnit Gebru y sus coautores por, ya sabes, escribir un artículo de IA que a Google no le gustó.
Y luego vamos al Sur Global para ver dónde, bueno, para hacer un proyecto imperial, necesitas esas materias primas. Y así que pasas tiempo en Kenia, en Venezuela, en Chile.
Y esos son realmente dos elementos más. Está la mano de obra que tiene que entrar para asegurarse de que estos datos sean utilizables. Y luego está el, necesitas tener centros de datos funcionando para procesarlo todo. Necesitas mucha energía. Y entonces, ¿puedes hablar sobre esos viajes que hiciste y por qué los hiciste y por qué los incluiste en esta narrativa?
Sí, totalmente. Sí, así que una de las cosas que descubrí rápidamente cuando comencé a informar sobre la IA fue que para realmente entender cómo la IA interactúa con la sociedad, tienes que alejarte mucho de Silicon Valley. Porque si te quedas dentro de Silicon Valley y pasas todo tu tiempo entendiendo su visión del mundo y cómo esa visión del mundo se está elaborando en la tecnología, no vas a ver cómo luego se desmorona cuando va a los lugares que son más diferentes de lo que estas personas sentadas en las prístinas torres de marfil están imaginando sobre cómo funciona el mundo.
Y así que sentí muy fuertemente que para, si iba a escribir un libro, tenía que tener ambos elementos. Tenía que tener la vista interior en los pasillos de la empresa y también luego ir hasta lugares que son el espejo negro fundamental opuesto de lo que están hablando. Y así que los principales lugares a los que fui fueron Colombia y Kenia para observar los derechos de los trabajadores y luego Chile y Uruguay para observar el centro de datos y los impactos ambientales y cómo eso está comenzando a escalar realmente en todo el mundo y a quitar los recursos de sustento de las personas.
Y el viaje a Colombia fue en realidad un viaje más antiguo donde realmente quería ir a Venezuela, como mencionaste, porque en 2016 a 18 hubo un fenómeno donde toda la industria aérea comenzó a contratar trabajadores en Venezuela porque la economía del país se estaba colapsando por completo y sí, y todas estas empresas de anotación de datos que vendían a empresas de IA como, oye, podemos conseguirte trabajadores para limpiar tus datos en coches autónomos; eso era lo que estaba de moda en ese momento. También tuvieron un aumento en los venezolanos que se unieron a su plataforma y se dieron cuenta de que realmente podían capitalizar esta oportunidad al conseguir personas que estaban súper educadas, que estaban muy bien conectadas a Internet y que enfrentaban una extrema dificultad económica y, por lo tanto, estaban dispuestas a trabajar a cualquier precio.
Y así que en 2021, creo, terminé yendo a Colombia porque no pude entrar en Venezuela para hablar con una refugiada venezolana que había caído en este trabajo de anotación de datos. Y por primera vez, vi a través de sus ojos cómo estas plataformas controlaban su vida porque funcionan simplemente con que tienes un sitio web al que te conectas. Cualquiera puede crear una cuenta y luego simplemente publicar trabajos que desaparecen en segundos si no los reclamas inmediatamente porque golpean a todos estos trabajadores entre sí para reclamar los trabajos lo más rápido posible.
Y hubo experiencias en las que ella salía a caminar, hubo una experiencia que tuvo en la que salió a caminar y recibió una notificación en su teléfono de que un trabajo había aparecido repentinamente y era por cientos de dólares. Y simplemente comenzó a correr de regreso a su apartamento para tratar de reclamarlo antes de que desapareciera. Y cuando regresó al apartamento, se había ido. Y eso podría haber sido su ingreso literal para su mes. Y así que después de eso, nunca más salió a caminar durante la semana. Y solo se permitía caminar los fines de semana.
Eso fue pre-IA generativa. Ahora estamos en una era de IA generativa donde los problemas ciertamente se han intensificado porque la mano de obra ha aumentado. Entonces, ¿cómo se ve ahora? Así que terminé haciendo un viaje a Kenia para luego entender cómo se ve con este paradigma actual y lo que había cambiado era la forma del daño, mientras que con la mujer en Colombia ella, como que el daño era estructural cómo la plataforma imponía una especie de fragilidad e incapacidad para controlar sus ritmos de vida ahora estábamos cambiando a un mundo donde las tareas reales en sí mismas también eran psicológicamente dañinas porque tratando de desarrollar un chatbot que pueda chatear sobre cualquier cosa necesitas luego poner un filtro de moderación de contenido en ese chatbot y desarrollar esa moderación de contenido allí necesitas trabajadores para hacer el mismo tipo exacto de monitoreo de contenido que los trabajadores de los medios hicieron.
Y entrevisté a trabajadores que habían sido contratados por OpenAI específicamente para desarrollar estas herramientas de moderación de contenido que luego se utilizaron para ChatGPT. Y sus vidas fueron completamente trastornadas por la experiencia. Y hubo un hombre cuya historia específica destaqué en el libro, donde su salud mental se desmoronó por completo. Y luego las personas que dependían de él lo dejaron. Así que su esposa se levantó y se fue y se llevó a su hija con ella. Y todo para producir una tecnología que luego también quitó las oportunidades económicas de su hermano.
Su hermano era escritor y cuando salió ChatGPT, comenzó a perder sus contratos. Y así que realmente, quiero decir, así es como puedes ver la verdadera lógica del imperio. Todo lo que Silicon Valley siempre está hablando es ‘cuando llegue AGI, cuando llegue la economía AGI’. Esa es como la nueva frase que están diciendo ahora. Va a crear todas estas nuevas oportunidades. Pero en realidad, los trabajos que hicimos son psicológicamente dañinos y están quitando otros trabajos dignos.
Luego fui a Chile para entender realmente la extracción ambiental y de recursos que ocurre porque no solo estamos hablando de extracción de datos. Estamos hablando de minerales literales que se excavan de la tierra para construir centros de datos y supercomputadoras para entrenar estos modelos.
Y Chile es uno de los mayores proveedores de minerales que entran en los centros de datos, litio y cobre. Y así, el Desierto de Atacama, que es la parte norte de Chile, ha sido completamente vaciado porque así es como la economía de Chile es, en gran medida una economía extractiva.
A lo largo de toda su historia colonial, realmente han terminado en un lugar donde, en este país, así es como crean empleos, es que sirven a un poder superior y extraen sus recursos naturales.
Y a medida que eso sucede en el norte de Chile, también hay todos estos centros de datos que están inundando Santiago, en el centro de Chile, porque el gobierno también quiere inversión y permitir que estas empresas tomen su energía y su agua para construir estos centros de datos. Y entonces hay muchos grados diferentes de extracción ambiental que ocurren en Chile. Y me reuní con activistas, activistas indígenas en el Desierto de Atacama y activistas que vivían en el área metropolitana de Santiago que se enfrentaban a lo mismo: nuestra tierra está siendo literalmente exprimida y no estamos obteniendo ningún beneficio de esto.
Las personas que se benefician son las élites de nuestro país y las élites de su país. Um, y no tenemos, como, cómo tenemos un futuro en este contexto donde ni siquiera podemos controlar nuestros propios recursos o ser enriquecidos por nuestros propios recursos. Así que sí, esos fueron dos aspectos de la historia del imperio que realmente quería incluir en el libro.
Y resuenan. Pasas tiempo con algunos de los activistas y miembros de la comunidad local y trabajadores, y está entretejido de una manera que es como: OK, nada de esto sería posible sin que todo esto suceda en el sur global, todo este trabajo.
Así que, en un corolario oscuro, escribí un libro sobre el iPhone hace casi 10 años. Y fui a casi algunos de los mismos lugares exactos, ¿verdad? Fui a Kenia, donde había creadores de aplicaciones que estaban siendo explotados para ayudar a desarrollar las aplicaciones para el primer iPhone. Y luego también fui a Chile, donde se extrae el litio para las baterías. Y solo estás mirando la huella, ¿verdad? Y creo que la IA es ciertamente una buena lente, pero es casi como si pudieras combinar todas las tendencias de Silicon Valley que se han acelerado: su búsqueda de capital, de expansión, de nuevos mercados, y es sorprendente escuchar lo poco que ha cambiado. Cómo [estas empresas] siguen regresando a estos mismos lugares en el sur global para explotar.
Creo que ese es un punto muy importante porque la IA es un continuo, no es como si la IA surgiera de la nada, existe en un continuo de todo lo que Silicon Valley ha hecho antes.
Son los mismos tipos que están haciendo esto. Y entonces, una de las cosas que realmente siento después de hacer todos los informes sobre el libro es que esta manifestación actual de la IA, donde realmente es una manifestación de crecimiento a toda costa, no podría haber existido sin las bases que se sentaron en la era anterior de Silicon Valley con las redes sociales y con la búsqueda y con el iPhone. Tanto en términos del capitalismo de vigilancia que comenzó hace 10, 20 años, no habrían tenido todos esos datos por ahí sin el capitalismo de vigilancia para luego entrenar los modelos.
E impusieron la sensación de que estaba bien tomarlo, ¿verdad? Como, que está ahí para tomarlo.
Sí, exactamente. Y realmente tuvieron que normalizar eso culturalmente. Sabes, mucha gente, mientras informaba el libro, seguía volviendo a esta metáfora de una rana en una olla de agua hirviendo. Como, Silicon Valley ha hecho muy estratégicamente que la gente se sienta cada vez más cómoda con renunciar a toda nuestra capacidad de hacer cosas.
Y entonces, todas las cadenas de suministro que instalaron, las normas culturales que instalaron, la lógica capitalista que instalaron anteriormente ahora está evolucionando a su forma más extrema y ha pasado del capitalismo al colonialismo.
Hasta el punto en que, como, no sé a dónde van si todo esto explota. ¿A dónde vas desde aquí? Desde prometer la máquina que puede automatizar todo el trabajo, que puede ser tu terapeuta, que puede ser tu médico. Que podría hacer todo, ¡es la verdadera aplicación para todo!
Correcto. ¿Cuánto tiempo va a durar esta narrativa antes de la nueva y qué demonios van a decir en la nueva?
Sí.
Sí, es alarmante.
Lo es. Es salvaje. Quiero dejar algo de tiempo para llegar a algunas preguntas, pero también quiero, hay un hermoso epílogo en el libro donde miras un modelo alternativo para como lo que podría ser si esto no fuera un proyecto imperial, si esto no fuera un proyecto capitalista tardío donde, los incentivos fueron infundidos desde el principio.
Sabes, podríamos tener proyectos realmente útiles, realmente interesantes y hermosos como revivir una lengua moribunda. Si pudieras repasar algunas de tus recetas sobre cómo podríamos desmantelar el imperio de la IA o hacer las cosas de manera diferente.
Sí, una de las cosas en las que me baso en el epílogo es de una charla que una de mis queridas amigas, Ria Kalluri, que es investigadora de IA de Stanford, que dijo en una charla en 2019 en Queer in AI, que es una organización de investigadores queer de IA que piensan en cómo hacer queer el proceso de IA.
Y ella dijo, la pregunta que hay que hacer no es "¿Está la IA haciendo el bien? ¿Está la IA beneficiando a toda la humanidad?". La pregunta que hay que hacer es: "¿Cómo están desarrollando e implementando la IA para cambiar el poder? ¿Están finalmente fortaleciendo el imperio o desmantelando el imperio?".
Y lo que digo en el epílogo es que, en última instancia, no tengo todas las soluciones y recetas. Ni siquiera tengo una buena predicción de cómo se verá el imperio. Está evolucionando y moviéndose tan rápido. No tengo todas las recetas sobre cómo vamos a desmantelarlo. Pero eso es lo que tenemos que seguir preguntándonos una y otra vez. Cuando estamos desarrollando IA, cuando estamos implementando IA, cuando estamos resistiendo ciertas visiones de la IA, ¿cómo está todo eso tratando de desmantelar el imperio y devolvernos a la democracia?
Y lo que realmente defiendo en términos de IA, visiones de la IA que hacen eso, cada vez más, creo que no podemos tener el crecimiento de modelos de IA a gran escala a toda costa. Una solución única para todos es inherentemente colonial. Pero lo que podemos hacer es volver a un mundo en el que los modelos de IA puedan diseñarse e implementarse para resolver desafíos específicos que estén bien definidos y que sean cosas que necesitamos. Cosas como, como dijiste, revitalizar las lenguas indígenas que los colonizadores originales intentaron erradicar.
Cosas como integrar más energía renovable en una red optimizando, prediciendo mejor la generación de energía renovable y optimizando la distribución. Cosas como permitir a los médicos dar a los pacientes mejores diagnósticos, porque ha habido muchos estudios que han demostrado que cuando a los médicos se les dan modelos específicos, como un modelo para detectar ciertos tipos de cáncer, pueden detectar el cáncer antes y con mayor precisión, y los pacientes pueden abordarlo más rápido.
Cosas como modelos que nos ayudan con el descubrimiento de fármacos. Ninguno de estos son modelos de IA generativa. Ninguno de ellos son modelos de lenguaje grandes, modelos a gran escala. Y realmente necesitamos comenzar a articular mejor '¿cuáles son exactamente los desafíos que necesitamos abordar? ¿Dónde están los lugares donde hay un problema de optimización, un problema computacional, un problema de maximización que se presta a la IA? ¿Y cómo empoderamos y capacitamos a los humanos para que usen la IA como herramientas para lograr esos objetivos?
Y eso es, en última instancia, lo que necesitamos.