A MEDIDA QUE LA INTELIGENCIA ARTIFICIAL AVANZA, ¿PODEMOS CONFIAR EN EL PROGRAMA OPEN AI Y EN SU FUNDADOR, SAM ALTMAN?
Soy Azeem Azhar y hoy voy a reunirme con Sam Altman para hablar. Bienvenidos a Exponentially. El 2023 será recordado como el año en que la IA irrumpió en la conciencia pública. OpenAI está al mando del cambio, pero, ¿qué es lo que piensa su fundador? ¿Cuál es su objetivo? ¿Y seremos parte del cambio? Sam Altman es la estrella de rock and roll de la inteligencia artificial. Ha recaudado miles de millones de dólares de Microsoft y entre sus primeros patrocinadores estaban Elon Musk y Reid Hoffman. Ha sido un encuentro increíble y cuanto más sabemos sobre la IA, más preguntas surgen al respecto. Me encontré con Sam al comienzo de una gira mundial que cubriría 20 países en solo 30 días. Conversamos en la University College de Londres frente a una audiencia en vivo de casi 1000 personas. Debes estar muy ocupado, estás en medio de una enorme gira mundial.
¿Cómo te sientes? Ha sido genial. Al principio, no sabía si iba a divertirme. Tenía muchas ganas de hacerlo, porque acudir a los medios de comunicación de San Francisco no era una opción para mí. Entonces, se me ocurrió la idea de viajar y conocer gente personalmente. Así que recibimos comentarios muy útiles sobre lo que la gente quiere que hagamos, qué piensa sobre la IA, qué le entusiasma, qué le preocupa. Y lo he pasado muy bien. Te he visto tomando notas a mano en un cuaderno mientras escuchas a la gente. Todavía tomo notas y escribo listas a mano. Seguramente tengamos que aprender algo de eso. No creo que así sea. Cuando fundaste OpenAI en 2015, ¿imaginaste que unos pocos años después, casi por necesidad, tendrías que subirte a un avión y volar alrededor del mundo para escuchar lo que personas de todos los continentes tenían para decirte? Siempre tuve eso en mente. Cuando dirigia Y Combinator intentaba viajar lo más posible para conocer gente.
Creo que eso es algo importante que la industria tecnológica del área de la bahía no hace lo suficiente. Pero yo lo disfruto. También creo que viajando adquirí algunos conocimientos muy importantes. De esa manera logras ver perspectivas muy diferentes. Cuando iniciamos OpenAI, pensé que probablemente no funcionaría, pero si lo hacía, creí que sería una tecnología impactante y que recibir aportes del mundo sería un factor clave para el proceso. Ya has logrado bastantes avances en esta herramienta. Has estado en países del sur global y también en países de Europa que son más ricos. Quiero que me des una respuesta que sea lo más breve y rápida posible.
¿Cómo fue cambiando la actitud del público y qué te sorprendió? Hay muchos aspectos interesantes en los que la actitud de las personas no han cambiado. Creo que hay mucho entusiasmo por parte de las personas que aplican la tecnología a todo. Y también hay miedo por parte de las personas que no usan la tecnología o de las que la usan mucho y se preguntan cuáles serán los límites. Las preocupaciones son diferentes dependiendo del lugar. En el caso del sur global, se preguntan cuáles son los beneficios económicos de esta tecnología. Por ejemplo, ¿cómo podría ayudar con los problemas de educación y salud? Y en los países más desarrollados se preocupan más por cómo la IA podría ayudar a abordar problemas a largo plazo y tiene sentido. Pero notamos que hay aspectos que son universales, como el entusiasmo por la tecnología, el deseo de participar, el deseo de garantizar que los valores de todos estén representados. Además, tenemos una especie de gobernanza, ya que tenemos la posibilidad de plasmar las necesidades en los sistemas que construimos, de repartir beneficios y de crear un acceso compartido justo. Teniendo en cuenta el modelo de Silicon Valley, estás en una posición sin precedentes desde muchos puntos de vista. Generalmente, el fundador de una empresa o de un servicio como este posee mucho capital, también recibe un salario y tiene ventajas financieras. Tú no tienes nada de eso, simplemente retiras lo suficiente para tu seguro médico. Entonces, ¿qué es lo que te motiva a seguir con este proyecto? Considerando el desafío que supone y las exigencias de tiempo y de energía.
Me parece un reto fascinante. Realmente no se me ocurre nada más emocionante en lo que trabajar. Me siento muy privilegiado de vivir en este momento de la historia y más aún de poder trabajar con este equipo en particular. No existe otra forma en la que preferiría pasar los días. Entiendo. Fui muy afortunado y gané mucho dinero al principio de mi carrera.
Entonces, creo que eso fue de gran ayuda. ¿Tienes personas que sean tus mentores? Sí, me siento muy afortunado de haber tenido grandes mentores. También creo que es importante no intentar aprender demasiado de otros y hacer las cosas a mi manera. Siempre he tratado de tener un equilibrio, aunque todavía no lo logré por completo.
Pero creo que una de las cosas mágicas de Silicon Valley es lo mucho que se preocupa la gente por la tutoría y la enseñanza. Y así es como aprendí más de lo que me correspondía. Si tuvieras que elegir una o dos lecciones de tus grandes mentores, ¿cuáles serían? Paul Graham dirigía la que hoy es mi área antes de que yo llegara. Gracias a él, muchas personas y yo aprendimos cómo funcionan las empresas emergentes y cómo se diseña el manual de estrategias para que sean exitosas. Él fue quien nos enseñó, en gran medida, qué es lo que se necesita para crear una organización de alto funcionamiento y cuáles son las trampas que hay que evitar.
Y sin duda, de Elon aprendí todas las cosas que son posibles de hacer y que no necesariamente hay que aceptar que nuestra tecnología no es algo que se puede ignorar. Eso ha sido muy valioso. Creo que estas dos lecciones de las que hablas se pueden ver plasmadas en OpenAI y en todo lo que has logrado en estos últimos años. En nuestro último encuentro, hace un par de años, tú hablabas de estos grandes modelos de lenguaje y actualmente estamos utilizando GPT-4, pero en aquel entonces lo más moderno era GPT-3. Y recuerdo que mencionaste que para pasar del sistema GPT-2 al GPT-3 había que dar solo un pequeño paso. Dijiste que la brecha entre ambos era mínima.
¿Dirías que llegar a GPT-4 también implicó dar otro pequeño paso? Así lo veremos en retrospectiva. Eso creo. En su momento fue un gran cambio, pero en retrospectiva lo veremos diferente. Por un tiempo se sintió como un gran salto, pero la gente ya está preguntando en qué estamos trabajando y cuándo se lanza GPT-5. Y eso está bien, así se maneja el mundo y así es como debe ser. Nos acostumbramos a todo, establecemos nuevas bases muy rápido. Quiero preguntarte, ¿cuáles fueron los conocimientos que adquiriste durante el desarrollo de GPT-4, y en los meses posteriores a su lanzamiento, que fueron diferentes a los de los modelos anteriores?
Creo que terminamos de entrenar GPT-4 unos ocho meses antes de lanzarlo. Y ese fue, con diferencia, el tiempo más largo de prelanzamiento de un modelo. Con GPT-3 aprendimos todas las formas en las que estas cosas pueden fallar cuando las liberas al mundo. Implementamos modelos de forma incremental para darle al mundo tiempo para adaptarse y también para entender qué es lo que podría pasar, cuáles son los riesgos, cuáles son los beneficios y cuáles deberían ser las reglas. Pero no queremos lanzar un modelo defectuoso. Así que dedicamos más tiempo a aplicar lo que aprendimos de las versiones anteriores de GPT. Ahora sabemos que si dedicamos tiempo a alinear, auditar y probar todo nuestro sistema de seguridad, podemos lograr muchos avances. Básicamente, construiste un modelo que es una máquina increíblemente compleja. El precursor, GPT-3, tenía 175 mil millones de parámetros como controles deslizantes en un ecualizador gráfico, y eso es mucha configuración. Y el modelo GPT-4 es aún más grande, aunque no has dicho formalmente cuáles son sus dimensiones. Entonces, mi pregunta es: ¿qué es lo que haces con esa máquina para conseguir que haga lo que queremos y, al mismo tiempo, que no haga lo que no queremos? Ese es el problema de alineación, que es en lo que has trabajado durante ocho meses. Sí.
Quiero dejar algo bien en claro. El hecho de que seamos capaces de alinear GPT-4 no significa que no pueda tener fallas. De eso no hay ninguna duda. Tenemos una enorme cantidad de trabajo por hacer para descubrir cómo vamos a alinear la superinteligencia y sistemas mucho más poderosos que los que tenemos ahora. Me preocupa que la gente piense que hemos resuelto el problema cuando decimos que podemos alinear GPT-4 lo mejor posible, porque no es así. Pero creo que es increíble que podamos tomar el modelo base de GPT-4, que si cualquier persona lo usa, puede comprobar que no es demasiado impresionante. O, al menos, que es extremadamente difícil de usar. Y con relativamente poco esfuerzo y pocos datos, podemos aplicar RLHF y lograr que el modelo sea fácil de utilizar y esté alineado. RLHF significa Aprendizaje por Refuerzo con Retroalimentación Humana. Tengo entendido que esa es la forma en la que la gente responde preguntas de GPT-4 y le indica cuándo ha cumplido con las expectativas y cuándo no.
Así es. Se utilizan pequeñas cantidades de retroalimentación poco sofisticadas. Dado que estos modelos se pueden utilizar con lenguaje natural, es normal pensar que la máquina se alimenta de comentarios muy explicativos y desarrollados. Pero la realidad es que el sistema se basa en algo tan simple como pulgares arriba y pulgares abajo. Y creo que es impresionante que funcione así. Lo que me resulta increíble es la poca cantidad de RLHF en comparación con los miles de millones de palabras con las que se entrenan estos modelos. ¿Cuántos comentarios se necesitan para que sean lo más precisos posible? Eso varía bastante dependiendo del caso,
pero no muchos. Dijiste que no estás entrenando a GPT-5 en este momento y tengo curiosidad de saber por qué. ¿Es porque no hay suficiente información? O, ¿porque no hay suficientes chips de computadora para entrenarlo? O, ¿fue porque identificaste ciertas necesidades cuando estabas creando GPT-4 y pensaste que tenías que descubrir cómo abordarlas antes de construir el siguiente modelo? Estos modelos son muy difíciles de construir. Pasaron casi tres años entre el lanzamiento de GPT-3 y GPT-4. Lleva mucho tiempo y hay mucha investigación por hacer. También hay muchas cosas que queremos hacer con GPT-4 ahora que está terminado, como estudiar el período de posformación. Queremos expandirlo. Es increíble que se pueda lanzar un iPhone cada año, pero nosotros vamos a tener una cadencia de más de un año. Mencionaste que hay mucha más investigación por hacer y hay varios investigadores de IA con mucha experiencia que han dicho que los modelos de lenguaje grande son limitados. Sostienen que estos grandes modelos de lenguaje no aumentarán su nivel de rendimiento y que no se puede construir inteligencia artificial general a partir de ellos. ¿Estás de acuerdo con estas ideas? En primer lugar, creo que la mayoría de esos comentaristas se han equivocado terriblemente sobre lo que los modelos grandes de lenguaje podrán hacer.
Muchos de ellos ahora han pasado a decir que no es que esta tecnología no funcione, sino que lo hace demasiado bien y que tenemos que detenerla porque es demasiado peligrosa. Otros simplemente han dicho que todo esto no supone ningún aprendizaje real. Algunos de los más sofisticados opinan que los grandes modelos de lenguaje funcionan mejor de lo esperado, pero no tanto como la inteligencia artificial general según el paradigma actual. Y eso es cierto, así que creo que debemos esforzarnos lo más que podamos. Pero estamos trabajando duro para intentar descubrir el próximo paradigma. Lo que a mí más me entusiasma del mundo de la inteligencia artificial general es que estos modelos, en algún momento, nos ayudarán a descubrir nuevas ciencias de manera muy rápida y significativa. Pero creo que la forma más rápida de lograr eso es ir más allá del paradigma GPT. Tenemos que trabajar para crear modelos que puedan generar conocimientos, aportar nuevas ideas, descubrir cosas que no se han visto antes.
He estado usando GPT-4 de forma obsesiva. Me alegra saberlo. Sobre todo en los últimos meses, es algo extraordinario. Y siento que a veces intenta generar nuevos conocimientos. Y no tengo pruebas, pero trabajo en el área de investigación y siento que mi teoría puede ser acertada. ¿Qué opinas de esto?
Sí, hay algo de eso. Puede hacer cosas pequeñas, pero no puede autocorregirse y mantenerse lo suficientemente centrado como para que podamos, simplemente, pedirle que cure el cáncer, por ejemplo. Eso no sucederá. Bien. Pero sería bueno que pudiera hacerlo. Hablaste sobre diferentes vías de investigación que podrían ser necesarias. ¿Tienes un par de descubrimientos favoritos que crees que podrían ser el siguiente paso de la humanidad en la construcción de estas tecnologías? No hay nada que me inspire la suficiente confianza como para apostar a eso, pero seguimos buscándolo. Estamos hablando de cuán poderosas son estas tecnologías, pero, obviamente, también tienen ciertas desventajas. Comencemos mencionando una que hoy en día es una realidad. Como sabemos, tanto GPT-4, como también otros grandes modelos de lenguaje son muy buenos para producir texto con sonido humano. Y eso plantea un riesgo de desinformación, más que nada, a medida que nos acercamos a elecciones importantes en Estados Unidos. ¿Qué tan grave consideras que es ese riesgo? Y teniendo en cuenta que ese evento es tan próximo, ¿qué podríamos hacer y en qué podríamos ayudarte? Creo que el tema de la desinformación se está convirtiendo en un gran desafío en el mundo y creo que es un asunto delicado.
Ya hemos desconfiado de cosas que resultaron ser ciertas. Sí. Expulsamos personas de las plataformas por creer que mentían. Entonces, vamos a tener que encontrar un equilibrio. Tenemos que aprender a preservar la capacidad de equivocarnos al momento de exponer información importante sin que nadie piense que todo se trata de desinformación intencional utilizada para manipular. Pero creo que la manipulación de información, hoy en día, es un problema real y hemos visto más de eso a medida que avanza la tecnología. El GPT-3.5 es bueno. Entonces, de haber habido una ola de desinformación, ¿no habría llegado antes? Creo que los humanos ya son buenos generando desinformación y tal vez los modelos GPT lo hagan más fácil. Pero eso no es lo que me preocupa. Si bien es tentador comparar la IA con las redes sociales, son muy diferentes. Puedes generar toda la desinformación que quieras con GPT-4, pero si no se difunde, no servirá de mucho. Entonces, la cuestión está en los canales de difusión.
15:17
Pero creo que lo que vale la pena considerar es qué será diferente con la IA y con qué canales que puedan ayudar a difundirla se conectará. Pienso que una cosa que será diferente es la capacidad persuasiva interactiva personalizada que tienen estos sistemas. Entonces, gracias a esta innovación, podría recibir una llamada automática y al atenderla, podría escuchar un texto pronunciado por una voz que suena muy realista. El mensaje leído por la máquina sería personalizado, por lo tanto, sería emocionalmente resonante y extremadamente realista. Creo que ese será el nuevo desafío y hay mucho que hacer al respecto. Podemos incorporar rechazos en los modelos y crear sistemas de seguimiento para que la gente no pueda hacerlo a escala. Pero vamos a tener potentes modelos de código abierto en el mundo y creo que es importante que así sea. Y las técnicas de IA abierta que podemos hacer en nuestros sistemas no funcionarán de la misma manera. Bien, quiero hacer hincapié en esto. OpenAI cuenta con una API, entonces, si algún cliente en particular tiene un mal comportamiento, lo puedes desactivar. Mientras que un modelo de código abierto puede ser ejecutado por cualquier persona en su computadora de escritorio, y eso es mucho más difícil de controlar. Sí. Resolver esto no puede ser solo responsabilidad de OpenAI.
¿Recibes ayuda? Hay regulaciones que podemos implementar que ayudarían con ese problema, pero la verdadera solución es educar a la gente sobre lo que está sucediendo. Hemos pasado por esto antes. Cuando Photoshop se popularizó, hubo un breve período en el que la gente creía que lo que veía en ciertas imágenes era real.
Pero luego aprendió que eso podía ser falso, aunque algunas personas todavía caen en estas cosas. Hoy se sabe que cualquier imagen podría estar manipulada digitalmente. Eso está claro. Lo mismo sucederá con estas nuevas tecnologías, pero cuanto antes podamos educar a la gente al respecto, mejor, porque la resonancia emocional va a ser mucho mayor.
Pasemos a la educación. Aquí estamos en una universidad global. Y, por supuesto, la educación está estrechamente relacionada con el mercado laboral. En ocasiones anteriores hemos visto surgir nuevas tecnologías poderosas que realmente han impactado la dinámica de poder entre trabajadores y empleadores.
Por ejemplo, a finales del siglo XVIII se produjo la pausa de Engels, el momento en Inglaterra en el que el PIB aumentó y los salarios de los trabajadores se estancaron. Cuando analizamos la IA, es posible que veamos algo similar. Y creo que ni tú ni yo queremos que los historiadores del futuro creen el concepto de la pausa de Altman para describir el momento en el que los salarios sufrieron bajo un punto de presión salarial debido al surgimiento de la nueva tecnología. ¿Cuáles son las intervenciones necesarias para garantizar que haya una especie de distribución equitativa de los beneficios de la tecnología? Antes que nada, necesitamos ganancias y crecimiento.
Creo que uno de los problemas del mundo desarrollado es que no tenemos suficiente crecimiento sostenible y eso está causando todo tipo de problemas. Por eso me entusiasma que esta tecnología pueda recuperar los aumentos de productividad que se perdieron en las últimas décadas. Algunas tecnologías reducen la desigualdad por naturaleza y otras la aumentan. No estoy totalmente seguro de qué pasará con esta, pero creo que es una tecnología cuyo objetivo es reducir la desigualdad. Según mi visión con respecto al modelo básico del mundo, el costo de la inteligencia y el costo de la energía son los dos insumos limitantes. Y si podemos hacerlos dramáticamente más baratos y más accesibles, eso ayudará más a los pobres que a los ricos, francamente, aunque la realidad es que ayudará mucho a todos. Esta tecnología beneficiará a todo el mundo. Las personas que están en esta sala pueden acudir a algún tipo de trabajo cognitivo intelectual, pero la mayoría de las personas en el mundo muchas veces no pueden hacerlo.
Y si podemos mercantilizar eso, será una importante fuerza igualadora. ¿Puedo decir algo más? Sí. Yo pienso que surgirán muchos más trabajos junto con esta revolución tecnológica y creo que eso es importante. No creo, en absoluto, que este sea el fin del trabajo. Creo que en el futuro pensaremos que los trabajos que hacemos hoy son mundanos y estaremos haciendo cosas más interesantes. Sigo opinando que tendremos que pensar en la distribución de la riqueza de manera diferente. Y eso está bien. De hecho, cambiamos de opinión después de cada revolución tecnológica. Y dadas las características de la que estamos viviendo hoy, creo que será todo un desafío lograr que el acceso a estos sistemas se distribuya de manera justa. Y en las revoluciones tecnológicas anteriores, lo que nos unió fueron las estructuras políticas. Me refiero al sindicalismo y los colectivos laborales de finales del siglo XIX. Cuando analizamos algo como la inteligencia artificial, ¿te imaginas los tipos de estructuras que se necesitarían para reconocer y redistribuir las ganancias del trabajo no remunerado o mal remunerado que a menudo no se reconoce? Como, por ejemplo, el trabajo que hoy realizan las mujeres en todo el mundo. Creo que habrá un cambio muy importante y también esperado en cuanto a los tipos de trabajo que valoramos hoy en día. Y además, proporcionar conexión humana será, como debería ser, uno de los tipos de trabajo más valorados y ocurrirá de maneras diferentes. Entonces, cuando reflexionamos sobre cómo ha progresado la IA hasta este punto, ¿qué lecciones podemos extraer, si es que hay alguna, sobre el camino hacia la superinteligencia artificial
y cómo podría surgir? ¿Existe realmente la idea de tener una inteligencia artificial que sea más capaz que los humanos en absolutamente todos y cada uno de los ámbitos que conocemos? ¿Cómo puedo resumirlo? Tienes tiempo. Creo que hay muchas cosas que hemos aprendido hasta ahora con respecto a la IA.
Pero una de ellas es que tenemos un algoritmo que puede aprender genuina y verdaderamente, y otra es que predeciblemente mejora con la práctica. Estos dos hechos se dan en conjunto. Y creo que, aunque pensamos en eso todos los días, no valoramos lo importante que es. Esta tecnología seguirá desarrollándose.
Otra observación que quiero destacar es que ocasionalmente tendremos estos aumentos discontinuos que se dan cuando descubrimos algo nuevo. Y además, creo que lo que yo solía pensar con respecto al avance hacia la superinteligencia era que íbamos a construir un sistema extremadamente capaz. Entonces, junto con ese sistema, iban a haber muchos desafíos de seguridad involucrados y ya sabíamos que esa era un área que iba a ser bastante inestable. Pero creo que ahora vemos un camino en el que, en gran medida, construimos herramientas y no criaturas, sino herramientas que se están volviendo cada vez más poderosas.
Y hay miles de millones, incluso billones de copias de estas herramientas que se están utilizando en el mundo para ayudar a las personas a ser mucho más efectivas y capaces. Gracias a ellas, la productividad de las personas puede aumentar drásticamente. Y a medida que va emergiendo la superinteligencia, no solo se desarrolla la capacidad de nuestra red neuronal más grande, sino toda la nueva ciencia que estamos descubriendo y también todas las cosas nuevas que estamos creando. ¿Y qué ocurre con las interacciones entre los billones de otros sistemas? La sociedad que formamos hoy en día es a partir de humanos asistidos por IA que utilizan estas herramientas para construir el conocimiento, la tecnología, las instituciones y las normas. Y ese enfoque de convivir con la superinteligencia me parece increíble en todos los aspectos y prepara un futuro mucho más emocionante para mí y para todos ustedes. Y espero que estén de acuerdo con que no esté todo centrado en un solo supercerebro. Al reflexionar sobre mi conversación con Sam, me sorprende lo dispuesto que está a abordar los riesgos que la IA podría plantear. Tal vez esto se deba a que aún hay mucho que no sabemos sobre la IA, porque se mueve tan rápido que es difícil, incluso, para alguien en la posición de Sam descubrir qué viene después.
Soy Azeem Azhar y has visto a Exponentially.