INTELIGENCIA ARTIFICIAL.

 

Te has preguntado alguna vez cómo sería vivir en un mundo donde la Inteligencia artificial no solo nos asiste sino que nos desafía y redefine nuestra propia existencia,

Exploraremos las siete etapas evolutivas de la Inteligencia artificial un viaje donde la frontera entre lo humano y lo artificial se vuelve borrosa y enigmática . Cómo la IA está trazando un futuro lleno de maravillas y misterios donde de cada avance nos acerca a un destino desconocido y revolucionario comenzamos con la primera etapa que consiste en sistemas de Inteligencia artificial basados en reglas estos sistemas también conocidos como sistemas de una tarea representan la etapa más temprana y fundamental en el desarrollo de la IA estos sistemas operan estrictamente dentro de un conjunto predefinido de reglas o un algoritmo específico proporcionado por los programadores su funcionamiento se basa en la lógica Sí entonces donde cada entrada recibe una respuesta predeterminada según las reglas establecidas.

Un ejemplo clásico de estos sistemas es una partida de ajedrez contra una computadora aquí la computadora está programada para conocer todos los movimientos posibles y sus resultados potenciales utiliza estas reglas para decidir el mejor movimiento en cada turno Pero su comprensión del juego está limitada estrictamente a lo que ha sido codificado en ella no tiene la capacidad de aprender de experiencias pasadas adaptarse a estrategias nuevas o inusuales ni desarrollar técnicas de juego propias estos sistemas basados en reglas son altamente eficientes y confiables para tareas específicas con reglas claras y bien definidas son ideales para aplicaciones como diagnosticar problemas mecánicos procesar formularios operaciones lógicas simples sin embargo su inteligencia y capacidad de actuar están firmemente limitadas por las reglas que se les han programado carecen de la habilidad para entender contextos más amplios, aprender de interacciones nuevas o situaciones que no estaban explícitamente preprogramadas en su sistema.

Pasemos a la etapa dos que abarca los sistemas de retención y conciencia del contexto estos sistemas marcan un avance significativo en el desarrollo de la Inteligencia artificial. A diferencia de los sistemas basados en reglas de la un estos sistemas son capaces de comprender y retener información de interacciones pasadas y utilizan este conocimiento acumulado para informar y mejorar sus respuestas futuras un ejemplo representativo de esta etapa son los asistentes virtuales como Siri o el asistente de Google estos sistemas no solo procesan y ejecutan comandos sino que también aprenden de las interacciones anteriores del usuario Por ejemplo si le preguntas a tu asistente virtual sobre el resultado de un partido de fútbol y luego preguntas, cuándo es el próximo juego el asistente entiende que te refieres al mismo equipo de fútbol mencionado anteriormente esta capacidad de retención y comprensión del contexto permite a estos sistemas manejar un Rango más amplio de interacciones de una manera más personalizada y sofisticada otro ejemplo es el modelo de lenguaje gpt generative pretrained Transformer como chat gpt desarrollado por Open eye entrenado con millones de conversaciones pasadas puede generar respuestas automáticas que simulan el estilo y la coherencia de un humano Ajustando sus respuestas según el contexto de la conversación en esta etapa la Inteligencia artificial comienza a mostrar una mayor flexibilidad Y adaptabilidad aunque aún no son pensadores independientes ni completamente autónomos estos sistemas de ia han aprendido a recordar y utilizar el contexto en sus interacciones lo que presenta un salto cualitativo Respecto a los sistemas basados únicamente en reglas continuamos con la etapa tres los sistemas de dominio específico en esta etapa la IA no solo comprende y retiene información sino que también se especializa en ser altamente competente dentro de un campo o dominio en particular estos sistemas son expertos adaptados y sobresalen en áreas específicas un ejemplo destacado de esta etapa es IBM Watson originalmente para competir en el programa de juegos Leopardi Watson demostró su capacidad para entender y responder preguntas complejas rápidamente y con precisión Watson analiza grandes cantidades de datos identifica patrones y proporciona respuestas basadas en su vasto conocimiento del dominio otro ejemplo notable es Alpha go the deep Mind una subsidiaria de Google un programa de ia diseñado para jugar al go un antiguo juego de mesa que se caracteriza por su complejidad y profundidad estratégica alfago no solo aprendió a jugar al Go sino que también logró derrotar a campeones mundiales del juego un hito significativo en el campo de la ia los sistemas de ia en esta etapa se caracterizan por su enfoque especializado no son generalistas sino que están diseñados para ser altamente eficientes en tareas específicas dentro de su campo de especialización estos sistemas tienen una comprensión más profunda de su dominio en particular que cualquier humano capaces de analizar datos y patrones a una velocidad y con una precisión que va más allá de las capacidades humanas representan la etapa adulta en el desarrollo de la ia mostrando habilidades sofisticadas y expertas dentro de sus áreas designadas vayamos ahora a la etapa cuatro que consiste en el pensamiento y razonamiento en sistemas de ia se caracteriza por sistemas de IA que comienzan a emular la capacidad de pensamiento y razonamiento humana estos sistemas no se limitan a seguir reglas o retener información contextual en cambio intentan simular el proceso de pensamiento humano abarcando la comprensión de conceptos complejos la resolución de problemas desconocidos y la generación de ideas creativas en esta etapa la IA utiliza técnicas avanzadas como el aprendizaje automático y el aprendizaje profundo estas metodologías permiten a los sistemas aprender de experiencias pasadas y mejorar continuamente su rendimiento por ejemplo un sistema de IA de esta etapa puede ser capaz de leer un libro y no solo comprender la trama sino también inferir los motivos de los personajes basándose en sus acciones otra aplicación podría ser en el ámbito de los análisis financieros donde un sistema de IA puede estudiar datos económicos anticipar tendencias del mercado y sugerir estrategias de inversión inteligentes estos sistemas son capaces de abordar y resolver problemas complejos de manera innovadora .

Yendo más allá de la mera ejecución de tareas programadas esta etapa marca un avance significativo hacia una ia más parecida a la inteligencia humana aunque aún no alcanza la equivalencia total con la mente humana a pesar de su sofisticación y capacidades de aprendizaje estos sistemas de ia todavía requieren Un diseño y una programación específicos para abordar particulares Contamos a la etapa c la Inteligencia artificial general agi Pero antes de seguir si te está gustando Este vídeo deja un like y no olvides suscribirte para seguir viendo contenido de valor como este además si estás interesado en aprender más profundamente sobre la iia te recomendamos unirte a nuestra formación en ia Tienes toda la información en la descripción Ahora sí continuemos con esa etapa C esta introduce el concepto de la Inteligencia artificial general agi también conocida como ia fuerte en esta etapa la ia alcanza un nivel de inteligencia y habilidades cognitivas comparable a la del ser humano un sistema de agi es capaz de aprender adaptarse e implementar conocimientos en una amplia gama de tareas y contextos no limitándose a un campo o dominio específico la agi sería capaz de realizar cualquier tarea intelectual que un ser humano pueda hacer esto incluye aprender nuevos idiomas componer música resolver teoremas matemáticos complejos y comprender emociones humanas estos sistemas tendrían autoconciencia y la habilidad para entender y Navegar el

mundo de manera similar a un ser humano hasta ahora la agi es principalmente teórica y aún no se ha alcanzado en la práctica representa la frontera de la investigación en Inteligencia artificial y plantea tanto enormes posibilidades como desafíos éticos y de seguridad la existencia de agi cambiaría radicalmente numerosos aspectos de la vida humana desde Cómo trabajamos hasta Cómo interactuamos con la tecnología abriendo un mundo de posibilidades en Campos como la medicina la ciencia y la creatividad sin embargo su desarrollo y aplicación requieren consideraciones cuidadosas sobre el impacto y las implicaciones en la sociedad seguimos con la etapa seis Inteligencia artificial asi esta etapa introduce el concepto de superinteligencia artificial un nivel de inteligencia que no solo Iguala sino que supera ampliamente la capacidad cognitiva humana un sistema de asi sería capaz de realizar tareas con una eficiencia creatividad y habilidades de resolución de problemas que exceden las de los mejores cerebros humanos en prácticamente todos los campos incluyendo ciencia arte ingeniería y más lo que hace a la asi particularmente fascinante y aterradora a la vez es su capacidad de mejora continua y Autónoma un sistema asi podría aprender adaptarse y evolucionar a un ritmo exponencialmente más rápido que los humanos llevando a avances tecnológicos y científicos a una velocidad y con un alcance que actualmente no podemos comprender podría descubrir soluciones a problemas globales complejos como el c climático enfermedades incurables o incluso desentrañar los misterios del universo sin embargo la a también plantea importantes preocupaciones éticas y de seguridad su capacidad para superar la inteligencia humana significa que podría tomar decisiones o realizar acciones que los humanos no pueden prever o controlar la gestión y el control de una asi serían desafíos monumentales ya que un error o mal uso Podría tener consecuencias impredecibles y potencialmente catastróficas la posibilidad de asi plantea preguntas fundamentales sobre el futuro de la humanidad la naturaleza del Poder y la inteligencia Y cómo la sociedad debería prepararse para la eventualidad de una inteligencia que trasciende nuestros límites humanos y representa un territorio inexplorado con posibilidades tanto emocionantes como profundamente inquietantes para el futuro de nuestra civilización por último encontramos la etapa siete la singularidad de la ia Este es un concepto futurista que marca un punto de inflexión en la historia humana la singularidad se refiere al momento hipotético en el cual la Inteligencia artificial avanza tanto que supera la inteligencia humana provocando cambios impredecibles y fundamentales en la sociedad en esta etapa la superinteligencia artificial asi no solo Iguala sino que supera drásticamente la inteligencia humana en todos los campos esta superinteligencia sería capaz de mejorar y actualizarse a sí misma sin la necesidad de intervención humana llevando a un crecimiento tecnológico acelerado y exponencial la singularidad de la ia representa un futuro donde la tecnología avanza más rápido de lo que los humanos pueden comprender o predecir la idea de la singularidad de la ia plantea tanto fascinación como temor por un lado podría significar avances extraordinarios en la ciencia y la tecnología ofreciendo soluciones a los problemas más acuciantes de la humanidad por otro lado implica una era de incertidumbre y posibles riesgos ya que una superinteligencia descontrolada Podría tener efectos imprevisibles y potencialmente peligrosos el concepto de la singularidad de la ia ha sido objeto de mucho debate y especulación algunos ven en ella la posibilidad de un utopía tecnológica mientras que otros advierten sobre los riesgos de una inteligencia que sobrepasa la comprensión y control humanos la singularidad no es solo un evento tecnológico sino un punto de reflexión crucial sobre el futuro de la humanidad la ética de la Inteligencia artificial y cómo nos preparamos para un mundo que podría transformarse radicalmente por la tecnología avanzada En conclusión el recorrido por las siete etapas de la Inteligencia artificial nos ofrece una visión panorámica del Progreso y las potenciales transformaciones que la ia puede traer a nuestro mundo cada etapa representa un avance significativo en la capacidad complejidad y potencial de la Inteligencia artificial el futuro de la ia es tanto prometedor como desconocido y nos invita a reflexionar sobre Cómo podemos adaptar esta tecnología para el beneficio de la humanidad manteniendo un equilibrio entre la innovación y la responsabilidad la inteligencia artificial solo está definiendo el futuro de la tecnología sino también el futuro de nuestra sociedad y nuestra especie y así llegamos hasta el final de este víde qué piensas tú de la IA crees que puede llegar a acabar con la humanidad deja tu opinión en comentarios estaremos encantados de leerte Y debatir por último si te ha gustado el vídeo deja un like y no olvides suscribirte para estar al tanto de todas las actualizaciones de la Inteligencia artificial

Soy Azeem Azhar y hoy voy a reunirme con Sam Altman para hablar. Bienvenidos a Exponentially. El 2023 será recordado como el año en que la IA irrumpió en la conciencia pública. OpenAI está al mando del cambio, pero, ¿qué es lo que piensa su fundador? ¿Cuál es su objetivo? ¿Y seremos parte del cambio? Sam Altman es la estrella de rock and roll de la inteligencia artificial. Ha recaudado miles de millones de dólares de Microsoft y entre sus primeros patrocinadores estaban Elon Musk y Reid Hoffman. Ha sido un encuentro increíble y cuanto más sabemos sobre la IA, más preguntas surgen al respecto. Me encontré con Sam al comienzo de una gira mundial que cubriría 20 países en solo 30 días. Conversamos en la University College de Londres frente a una audiencia en vivo de casi 1000 personas. Debes estar muy ocupado, estás en medio de una enorme gira mundial.

¿Cómo te sientes? Ha sido genial. Al principio, no sabía si iba a divertirme. Tenía muchas ganas de hacerlo, porque acudir a los medios de comunicación de San Francisco no era una opción para mí. Entonces, se me ocurrió la idea de viajar y conocer gente personalmente. Así que recibimos comentarios muy útiles sobre lo que la gente quiere que hagamos,  qué piensa sobre la IA, qué le entusiasma, qué le preocupa. Y lo he pasado muy bien. Te he visto tomando notas a mano en un cuaderno mientras escuchas a la gente. Todavía tomo notas y escribo listas a mano. Seguramente tengamos que aprender algo de eso. No creo que así sea. Cuando fundaste OpenAI en 2015, ¿imaginaste que unos pocos años después, casi por necesidad, tendrías que subirte a un avión y volar alrededor del mundo para escuchar lo que personas de todos los continentes tenían para decirte? Siempre tuve eso en mente. Cuando dirigia Y Combinator intentaba viajar lo más posible para conocer gente.

Creo que eso es algo importante que la industria tecnológica del área de la bahía no hace lo suficiente. Pero yo lo disfruto. También creo que viajando adquirí algunos conocimientos muy importantes. De esa manera logras ver perspectivas muy diferentes. Cuando iniciamos OpenAI, pensé que probablemente no funcionaría, pero si lo hacía, creí que sería una tecnología impactante y que recibir aportes del mundo sería un factor clave para el proceso. Ya has logrado bastantes avances en esta herramienta. Has estado en países del sur global y también en países de Europa que son más ricos. Quiero que me des una respuesta que sea lo más breve y rápida posible.

¿Cómo fue cambiando la actitud del público y qué te sorprendió? Hay muchos aspectos interesantes en los que la actitud de las personas no han cambiado. Creo que hay mucho entusiasmo por parte de las personas que aplican la tecnología a todo. Y también hay miedo por parte de las personas que no usan la tecnología o de las que la usan mucho y se preguntan cuáles serán los límites. Las preocupaciones son diferentes dependiendo del lugar. En el caso del sur global, se preguntan cuáles son los beneficios económicos de esta tecnología. Por ejemplo, ¿cómo podría ayudar con los problemas de educación y salud? Y en los países más desarrollados se preocupan más por cómo la IA podría ayudar a abordar problemas a largo plazo y tiene sentido. Pero notamos que hay aspectos que son universales, como el entusiasmo por la tecnología, el deseo de participar, el deseo de garantizar que los valores de todos estén representados. Además, tenemos una especie de gobernanza, ya que tenemos la posibilidad de plasmar las necesidades en los sistemas que construimos, de repartir beneficios y de crear un acceso compartido justo. Teniendo en cuenta el modelo de Silicon Valley, estás en una posición sin precedentes desde muchos puntos de vista. Generalmente, el fundador de una empresa o de un servicio como este posee mucho capital, también recibe un salario y tiene ventajas financieras. Tú no tienes nada de eso, simplemente retiras lo suficiente para tu seguro médico. Entonces, ¿qué es lo que te motiva a seguir con este proyecto? Considerando el desafío que supone y las exigencias de tiempo y de energía.

Me parece un reto fascinante. Realmente no se me ocurre nada más emocionante en lo que trabajar. Me siento muy privilegiado de vivir en este momento de la historia y más aún de poder trabajar con este equipo en particular. No existe otra forma en la que preferiría pasar los días. Entiendo. Fui muy afortunado y gané mucho dinero al principio de mi carrera.

Entonces, creo que eso fue de gran ayuda. ¿Tienes personas que sean tus mentores? Sí, me siento muy afortunado de haber tenido grandes mentores. También creo que es importante no intentar aprender demasiado de otros y hacer las cosas a mi manera. Siempre he tratado de tener un equilibrio, aunque todavía no lo logré por completo.

Pero creo que una de las cosas mágicas de Silicon Valley es lo mucho que se preocupa la gente por la tutoría y la enseñanza. Y así es como aprendí más de lo que me correspondía. Si tuvieras que elegir una o dos lecciones de tus grandes mentores, ¿cuáles serían? Paul Graham dirigía la que hoy es mi área antes de que yo llegara. Gracias a él, muchas personas y yo aprendimos cómo funcionan las empresas emergentes y cómo se diseña el manual de estrategias para que sean exitosas. Él fue quien nos enseñó, en gran medida, qué es lo que se necesita para crear una organización de alto funcionamiento y cuáles son las trampas que hay que evitar.

Y sin duda, de Elon aprendí todas las cosas que son posibles de hacer y que no necesariamente hay que aceptar que nuestra tecnología no es algo que se puede ignorar. Eso ha sido muy valioso. Creo que estas dos lecciones de las que hablas se pueden ver plasmadas en OpenAI y en todo lo que has logrado en estos últimos años. En nuestro último encuentro, hace un par de años, tú hablabas de estos grandes modelos de lenguaje y actualmente estamos utilizando GPT-4, pero en aquel entonces lo más moderno era GPT-3. Y recuerdo que mencionaste que para pasar del sistema GPT-2 al GPT-3 había que dar solo un pequeño paso. Dijiste que la brecha entre ambos era mínima.

¿Dirías que llegar a GPT-4 también implicó dar otro pequeño paso? Así lo veremos en retrospectiva. Eso creo. En su momento fue un gran cambio, pero en retrospectiva lo veremos diferente. Por un tiempo se sintió como un gran salto, pero la gente ya está preguntando en qué estamos trabajando y cuándo se lanza GPT-5. Y eso está bien, así se maneja el mundo y así es como debe ser. Nos acostumbramos a todo, establecemos nuevas bases muy rápido. Quiero preguntarte, ¿cuáles fueron los conocimientos que adquiriste durante el desarrollo de GPT-4, y en los meses posteriores a su lanzamiento, que fueron diferentes a los de los modelos anteriores?

Creo que terminamos de entrenar GPT-4 unos ocho meses antes de lanzarlo. Y ese fue, con diferencia, el tiempo más largo de prelanzamiento de un modelo. Con GPT-3 aprendimos todas las formas en las que estas cosas pueden fallar cuando las liberas al mundo. Implementamos modelos de forma incremental para darle al mundo tiempo para adaptarse y también para entender qué es lo que podría pasar, cuáles son los riesgos, cuáles son los beneficios y cuáles deberían ser las reglas. Pero no queremos lanzar un modelo defectuoso. Así que dedicamos más tiempo a aplicar lo que aprendimos de las versiones anteriores de GPT. Ahora sabemos que si dedicamos tiempo a alinear, auditar y probar todo nuestro sistema de seguridad, podemos lograr muchos avances. Básicamente, construiste un modelo que es una máquina increíblemente compleja. El precursor, GPT-3, tenía 175 mil millones de parámetros como controles deslizantes en un ecualizador gráfico, y eso es mucha configuración. Y el modelo GPT-4 es aún más grande, aunque no has dicho formalmente cuáles son sus dimensiones. Entonces, mi pregunta es: ¿qué es lo que haces con esa máquina para conseguir que haga lo que queremos y, al mismo tiempo, que no haga lo que no queremos? Ese es el problema de alineación, que es en lo que has trabajado durante ocho meses. Sí.

Quiero dejar algo bien en claro. El hecho de que seamos capaces de alinear GPT-4 no significa que no pueda tener fallas. De eso no hay ninguna duda. Tenemos una enorme cantidad de trabajo por hacer para descubrir cómo vamos a alinear la superinteligencia y sistemas mucho más poderosos que los que tenemos ahora. Me preocupa que la gente piense que hemos resuelto el problema cuando decimos que podemos alinear GPT-4 lo mejor posible, porque no es así. Pero creo que es increíble que podamos tomar el modelo base de GPT-4, que si cualquier persona lo usa, puede comprobar que no es demasiado impresionante. O, al menos, que es extremadamente difícil de usar. Y con relativamente poco esfuerzo y pocos datos, podemos aplicar RLHF y lograr que el modelo sea fácil de utilizar y esté alineado. RLHF significa Aprendizaje por Refuerzo con Retroalimentación Humana. Tengo entendido que esa es la forma en la que la gente responde preguntas de GPT-4 y le indica cuándo ha cumplido con las expectativas y cuándo no.

Así es. Se utilizan pequeñas cantidades de retroalimentación poco sofisticadas. Dado que estos modelos se pueden utilizar con lenguaje natural, es normal pensar que la máquina se alimenta de comentarios muy explicativos y desarrollados. Pero la realidad es que el sistema se basa en algo tan simple como pulgares arriba y pulgares abajo. Y creo que es impresionante que funcione así. Lo que me resulta increíble es la poca cantidad de RLHF en comparación con los miles de millones de palabras con las que se entrenan estos modelos. ¿Cuántos comentarios se necesitan para que sean lo más precisos posible? Eso varía bastante dependiendo del caso,

pero no muchos. Dijiste que no estás entrenando a GPT-5 en este momento y tengo curiosidad de saber por qué. ¿Es porque no hay suficiente información? O, ¿porque no hay suficientes chips de computadora para entrenarlo? O, ¿fue porque identificaste ciertas necesidades cuando estabas creando GPT-4 y pensaste que tenías que descubrir cómo abordarlas antes de construir el siguiente modelo? Estos modelos son muy difíciles de construir. Pasaron casi tres años entre el lanzamiento de GPT-3 y GPT-4. Lleva mucho tiempo y hay mucha investigación por hacer. También hay muchas cosas que queremos hacer con GPT-4 ahora que está terminado, como estudiar el período de posformación. Queremos expandirlo. Es increíble que se pueda lanzar un iPhone cada año, pero nosotros vamos a tener una cadencia de más de un año. Mencionaste que hay mucha más investigación por hacer y hay varios investigadores de IA con mucha experiencia que han dicho que los modelos de lenguaje grande son limitados. Sostienen que estos grandes modelos de lenguaje no aumentarán su nivel de rendimiento y que no se puede construir inteligencia artificial general a partir de ellos. ¿Estás de acuerdo con estas ideas? En primer lugar, creo que la mayoría de esos comentaristas se han equivocado terriblemente sobre lo que los modelos grandes de lenguaje podrán hacer.

Muchos de ellos ahora han pasado a decir que no es que esta tecnología no funcione, sino que lo hace demasiado bien y que tenemos que detenerla porque es demasiado peligrosa. Otros simplemente han dicho que todo esto no supone ningún aprendizaje real. Algunos de los más sofisticados opinan que los grandes modelos de lenguaje funcionan mejor de lo esperado, pero no tanto como la inteligencia artificial general según el paradigma actual. Y eso es cierto, así que creo que debemos esforzarnos lo más que podamos. Pero estamos trabajando duro para intentar descubrir el próximo paradigma. Lo que a mí más me entusiasma del mundo de la inteligencia artificial general es que estos modelos, en algún momento, nos ayudarán a descubrir nuevas ciencias de manera muy rápida y significativa. Pero creo que la forma más rápida de lograr eso es ir más allá del paradigma GPT. Tenemos que trabajar para crear modelos que puedan generar conocimientos, aportar nuevas ideas, descubrir cosas que no se han visto antes.

He estado usando GPT-4 de forma obsesiva. Me alegra saberlo. Sobre todo en los últimos meses, es algo extraordinario. Y siento que a veces intenta generar nuevos conocimientos. Y no tengo pruebas, pero trabajo en el área de investigación y siento que mi teoría puede ser acertada. ¿Qué opinas de esto?

Sí, hay algo de eso. Puede hacer cosas pequeñas, pero no puede autocorregirse y mantenerse lo suficientemente centrado como para que podamos, simplemente, pedirle que cure el cáncer, por ejemplo. Eso no sucederá. Bien. Pero sería bueno que pudiera hacerlo. Hablaste sobre diferentes vías de investigación que podrían ser necesarias. ¿Tienes un par de descubrimientos favoritos que crees que podrían ser el siguiente paso de la humanidad en la construcción de estas tecnologías? No hay nada que me inspire la suficiente confianza como para apostar a eso, pero seguimos buscándolo. Estamos hablando de cuán poderosas son estas tecnologías, pero, obviamente, también tienen ciertas desventajas. Comencemos mencionando una que hoy en día es una realidad. Como sabemos, tanto GPT-4, como también otros grandes modelos de lenguaje son muy buenos para producir texto con sonido humano. Y eso plantea un riesgo de desinformación, más que nada, a medida que nos acercamos a elecciones importantes en Estados Unidos. ¿Qué tan grave consideras que es ese riesgo? Y teniendo en cuenta que ese evento es tan próximo, ¿qué podríamos hacer y en qué podríamos ayudarte? Creo que el tema de la desinformación se está convirtiendo en un gran desafío en el mundo y creo que es un asunto delicado.

Ya hemos desconfiado de cosas que resultaron ser ciertas. Sí. Expulsamos personas de las plataformas por creer que mentían. Entonces, vamos a tener que encontrar un equilibrio. Tenemos que aprender a preservar la capacidad de equivocarnos al momento de exponer información importante sin que nadie piense que todo se trata de desinformación intencional utilizada para manipular. Pero creo que la manipulación de información, hoy en día, es un problema real y hemos visto más de eso a medida que avanza la tecnología. El GPT-3.5 es bueno. Entonces, de haber habido una ola de desinformación, ¿no habría llegado antes? Creo que los humanos ya son buenos generando desinformación y tal vez los modelos GPT lo hagan más fácil. Pero eso no es lo que me preocupa. Si bien es tentador comparar la IA con las redes sociales, son muy diferentes. Puedes generar toda la desinformación que quieras con GPT-4, pero si no se difunde, no servirá de mucho. Entonces, la cuestión está en los canales de difusión.

Pero creo que lo que vale la pena considerar es qué será diferente con la IA y con qué canales que puedan ayudar a difundirla. Pienso que una cosa que será diferente es la capacidad persuasiva interactiva personalizada que tienen estos sistemas. Entonces, gracias a esta innovación, podría recibir una llamada automática y al atenderla, podría escuchar un texto pronunciado por una voz que suena muy realista. El mensaje leído por la máquina sería personalizado, por lo tanto, sería emocionalmente resonante y extremadamente realista. Creo que ese será el nuevo desafío y hay mucho que hacer al respecto. Podemos incorporar rechazos en los modelos y crear sistemas de seguimiento para que la gente no pueda hacerlo a escala. Pero vamos a tener potentes modelos de código abierto en el mundo y creo que es importante que así sea. Y las técnicas de IA abierta que podemos hacer en nuestros sistemas no funcionarán de la misma manera. Bien, quiero hacer hincapié en esto. OpenAI cuenta con una API, entonces, si algún cliente en particular tiene un mal comportamiento, lo puedes desactivar. Mientras que un modelo de código abierto puede ser ejecutado por cualquier persona en su computadora de escritorio, y eso es mucho más difícil de controlar. Sí. Resolver esto no puede ser solo responsabilidad de OpenAI.

¿Recibes ayuda? Hay regulaciones que podemos implementar que ayudarían con ese problema, pero la verdadera solución es educar a la gente sobre lo que está sucediendo. Hemos pasado por esto antes. Cuando Photoshop se popularizó, hubo un breve período en el que la gente creía que lo que veía en ciertas imágenes era real.

Pero luego aprendió que eso podía ser falso, aunque algunas personas todavía caen en estas cosas. Hoy se sabe que cualquier imagen podría estar manipulada digitalmente. Eso está claro. Lo mismo sucederá con estas nuevas tecnologías, pero cuanto antes podamos educar a la gente al respecto, mejor, porque la resonancia emocional va a ser mucho mayor.

Pasemos a la educación. Aquí estamos en una universidad global. Y, por supuesto, la educación está estrechamente relacionada con el mercado laboral. En ocasiones anteriores hemos visto surgir nuevas tecnologías poderosas que realmente han impactado la dinámica de poder entre trabajadores y empleadores.

Por ejemplo, a finales del siglo XVIII se produjo la pausa de Engels, el momento en Inglaterra en el que el PIB aumentó y los salarios de los trabajadores se estancaron. Cuando analizamos la IA, es posible que veamos algo similar. Y creo que ni tú ni yo queremos que los historiadores del futuro creen el concepto de la pausa de Altman para describir el momento en el que los salarios sufrieron bajo un punto de presión salarial debido al surgimiento de la nueva tecnología. ¿Cuáles son las intervenciones necesarias para garantizar que haya una especie de distribución equitativa de los beneficios de la tecnología? Antes que nada, necesitamos ganancias y crecimiento.

Creo que uno de los problemas del mundo desarrollado es que no tenemos suficiente crecimiento sostenible y eso está causando todo tipo de problemas. Por eso me entusiasma que esta tecnología pueda recuperar los aumentos de productividad que se perdieron en las últimas décadas. Algunas tecnologías reducen la desigualdad por naturaleza y otras la aumentan. No estoy totalmente seguro de qué pasará con esta, pero creo que es una tecnología cuyo objetivo es reducir la desigualdad. Según mi visión con respecto al modelo básico del mundo, el costo de la inteligencia y el costo de la energía son los dos insumos limitantes. Y si podemos hacerlos dramáticamente más baratos y más accesibles, eso ayudará más a los pobres que a los ricos, francamente, aunque la realidad es que ayudará mucho a todos. Esta tecnología beneficiará a todo el mundo. Las personas que están en esta sala pueden acudir a algún tipo de trabajo cognitivo intelectual, pero la mayoría de las personas en el mundo muchas veces no pueden hacerlo.

Y si podemos mercantilizar eso, será una importante fuerza igualadora. ¿Puedo decir algo más? Sí. Yo pienso que surgirán muchos más trabajos junto con esta revolución tecnológica y creo que eso es importante. No creo, en absoluto, que este sea el fin del trabajo. Creo que en el futuro pensaremos que los trabajos que hacemos hoy son mundanos y estaremos haciendo cosas más interesantes. Sigo opinando que tendremos que pensar en la distribución de la riqueza de manera diferente. Y eso está bien. De hecho, cambiamos de opinión después de cada revolución tecnológica. Y dadas las características de la que estamos viviendo hoy, creo que será todo un desafío lograr que el acceso a estos sistemas se distribuya de manera justa. Y en las revoluciones tecnológicas anteriores, lo que nos unió fueron las estructuras políticas. Me refiero al sindicalismo y los colectivos laborales de finales del siglo XIX. Cuando analizamos algo como la inteligencia artificial, ¿te imaginas los tipos de estructuras que se necesitarían para reconocer y redistribuir las ganancias del trabajo no remunerado o mal remunerado que a menudo no se reconoce? Como, por ejemplo, el trabajo que hoy realizan las mujeres en todo el mundo. Creo que habrá un cambio muy importante y también esperado en cuanto a los tipos de trabajo que valoramos hoy en día. Y además, proporcionar conexión humana será, como debería ser, uno de los tipos de trabajo más valorados y ocurrirá de maneras diferentes. Entonces, cuando reflexionamos sobre cómo ha progresado la IA hasta este punto, ¿qué lecciones podemos extraer, si es que hay alguna, sobre el camino hacia la superinteligencia artificial y cómo podría surgir? ¿Existe realmente la idea de tener una inteligencia artificial que sea más capaz que los humanos en absolutamente todos y cada uno de los ámbitos que conocemos? ¿Cómo puedo resumirlo? Tienes tiempo. Creo que hay muchas cosas que hemos aprendido hasta ahora con respecto a la IA.

Pero una de ellas es que tenemos un algoritmo que puede aprender genuina y verdaderamente, y otra es que predeciblemente mejora con la práctica. Estos dos hechos se dan en conjunto. Y creo que, aunque pensamos en eso todos los días, no valoramos lo importante que es. Esta tecnología seguirá desarrollándose.

Otra observación que quiero destacar es que ocasionalmente tendremos estos aumentos discontinuos que se dan cuando descubrimos algo nuevo. Y además, creo que lo que yo solía pensar con respecto al avance hacia la superinteligencia era que íbamos a construir un sistema extremadamente capaz. Entonces, junto con ese sistema, iban a haber muchos desafíos de seguridad involucrados y ya sabíamos que esa era un área que iba a ser bastante inestable. Pero creo que ahora vemos un camino en el que, en gran medida, construimos herramientas y no criaturas, sino herramientas que se están volviendo cada vez más poderosas.

Y hay miles de millones, incluso billones de copias de estas herramientas que se están utilizando en el mundo para ayudar a las personas a ser mucho más efectivas y capaces. Gracias a ellas, la productividad de las personas puede aumentar drásticamente. Y a medida que va emergiendo la superinteligencia, no solo se desarrolla la capacidad de nuestra red neuronal más grande, sino toda la nueva ciencia que estamos descubriendo y también todas las cosas nuevas que estamos creando. ¿Y qué ocurre con las interacciones entre los billones de otros sistemas? La sociedad que formamos hoy en día es a partir de humanos asistidos por IA que utilizan estas herramientas para construir el conocimiento, la tecnología, las instituciones y las normas. Y ese enfoque de convivir con la superinteligencia me parece increíble en todos los aspectos y prepara un futuro mucho más emocionante para mí y para todos ustedes. Y espero que estén de acuerdo con que no esté todo centrado en un solo supercerebro. Al reflexionar sobre mi conversación con Sam, me sorprende lo dispuesto que está a abordar los riesgos que la IA podría plantear. Tal vez esto se deba a que aún hay mucho que no sabemos sobre la IA, porque se mueve tan rápido que es difícil, incluso, para alguien en la posición de Sam descubrir qué viene después.

Azeem Azhar