CONCEPTO DE SINGULARIDAD
Característica, cualidad o detalle que distingue a una cosa de otras de la misma clase o especie.
sinónimos: particularidad, peculiaridad

El concepto de singularidad aplicado en el ámbito de la tecnología, hace referencia a ese posible momento futuro en el que las máquinas alcancen una inteligencia igual o superior a la del ser humano, y sean autónomas en tareas como el aprendizaje o el mejoramiento. Es decir, máquinas (ordenadores, robots, programas informáticos…) capaces de aprender por sí solas y de mejorarse a sí mismas y podrían igualar al cerebro humano si adquirieran habilidades emotivas y racionales.
Por el momento el ser humano ya ha creado máquinas que dominan la inteligencia perceptual (reconocimiento de imágenes, de sonido, transcripciones del habla, clasificación de imágenes…) y que incluso pueden crear algoritmos para generar sonidos e imágenes manejando redes adversarias generativas, es decir, que permiten generar nueva información a partir de la que ya se tiene. Realizan todo esto gracias a una base informativa facilitada por un ser humano (un programador, un ingeniero, un informático…), los visionarios expertos creen que entre 2040 o 2050 se habrá conseguido que las inteligencias artificiales construyan desde cero el conocimiento, planificando jerárquicamente la información y entendiéndola.
Antes de hablar de una superinteligencia que quiera aniquilar al ser humano , es necesario tratar de adivinar qué será lo primero que llegue a nuestras sociedades. Antes de tener robots terminators que se adueñen del mundo o programas informáticos que nos esclavicen, habrá situaciones mucho menos excitantes pero que nos pondrán en complicados debates morales, políticos, sociales, jurídicos, filosóficos, éticos y hasta familiares.
La relación con las máquinas es fría y distante, solo realizan la tarea que le hemos ordenado, aunque esta relación distante y de superioridad puede cambiar, cuando veamos a las máquinas de manera distinta.
Los llamados robots de compañía de, enfermos y desvalidos o simples elementos de ocio. Los robots (modelos masculinos y femeninos) tienen proporciones físicas perfectas e incluso varias personalidades programadas.
La relación entre humanos y máquinas se ha basado en el poder del creador, pero si otorgamos cualquier tipo de autoridad a un robot, pueden generarse situaciones inéditas.
La inteligencia artificial no conoce forma física concreta. Es en estos casos de hecho donde vemos el mayor poder de la inteligencia artificial, como ocurre con SkyNet, un programa informático capaz de reconocer objetos y a personas que ha sido instalado en China para garantizar la seguridad (y vigilancia) de todos los ciudadanos. SkyNet tiene más ojos que nadie: 20 millones de cámaras le facilitan imágenes y él se encarga de reconocer facialmente a cada ciudadano.
El debate que surge con la puesta en práctica de este tipo de tecnologías tiene que ver con cuestiones de privacidad, intimidad y derechos de las personas. El aumento de la seguridad casi siempre va atada al descenso de los derechos, pero en el caso de la IA se suma el factor de que es un robot quien invade la intimidad y utiliza con autonomía nuestros datos.
Estamos indefensos ante la vigilancia automatizada, y ante esta situación habrá quien prefiera confiar su seguridad a la inteligencia humana, y otros confiarán más en una inteligencia artificial. Los seres humanos cometemos muchos más errores, sin embargo cuando falla un robot, la alarma es mayor.
Este mismo año 2018 se ha producido el primer atropello mortal causado por un coche inteligente. El determinismo algorítmico y las decisiones automatizadas no siempre aciertan. Las mismas reglas se aplican a los sistemas financieros automatizados. ¿Qué ocurriría si una IA cometiera un accidente manejando flujos de dinero y nos hiciera perder miles de millones?: ¿quién tiene la culpa cuando una inteligencia artificial causa un accidente o comete un delito, la máquina o la persona que la diseñó? Nadie duda que en la actualidad la responsabilidad es de la empresa y los ingenieros detrás de la máquina, pero en unos años este escenario puede cambiar.
¿Dejarías a un algoritmo decidir? Seguramente el determinismo algorítmico no nos importe para el caso de Spotify, que con su inteligencia nos recomienda las canciones que sabe nos van a gustar pero, ¿y en los coches? ¿dejaríamos a la IA que tomara las decisiones que creyera oportunas en la carretera mientras nos lleva a donde le hemos dicho? ¿y en casa? ¿nos parecería bien ceder la cuchara y que fuera una IA quien nos cocinara la comida que sabe que preferimos?
Todas estas cuestiones que se plantean parecen otorgar intencionalidad a las acciones de los robots inteligentes. ¿Realmente serán capaces de tener intenciones? Y, si no hay intencionalidad, ¿se les puede exigir responsabilidad?¿en qué medida las máquinas podrán ser responsables de sus actos?
Aceptar que los robots deben tener una responsabilidad es adjudicarles deberes, y en ese sentido es interesante recordar la propuesta que la Alianza Progresista de Socialistas y Demócratas hizo en el Parlamento Europeo en 2016, en la que se pedía que los robots adquirieran el estatus jurídico de ‘personas electrónicas’ para que, entre otras cosas, tuvieran el deber de pagar impuestos. Según como entendemos las relaciones en sociedad, tener deberes va a acompañado de disfrutar de ciertos derechos. Si se avanza hacia una verdadera inteligencia artificial, los robots podrían adquirir derechos derivados de su trabajo. Ya hay inteligencias artificiales componiendo música o pintando cuadros. ¿A quién pertenecen las obras creadas por robots? ¿a los robots?
En 2017 tuvo impacto la noticia de que un ingeniero chino se había casado con una mujer robot diseñada por él mismo. Más allá de la ridiculización que podamos hacer en la actualidad de este tipo de matrimonios, en un futuro no muy lejano pueden aceptarse socialmente.
El transhumanismo es una corriente que defiende la transformación de la vida humana, evolucionando hacia una especie de ciborgs que combinen lo mejor de nuestra biología con el poder de la tecnología más avanzada. En la actualidad ya hay personas que son “ciborgs”, ya que dependen de la tecnología para cumplir alguna función biológica, pero lo que propone el transhumanismo va mucho más allá, proponiendo transformar la condición humana y mejorar las capacidades humanas. Ya hay un candidato a la presidencia de Estados Unidos que es transhumanista, y en España también existe un partido transhumanista llamado Alianza Futurista. De nuevo, bajo nuestra óptica todo esto parece una locura, pero no deberíamos infravalorar nuestra propia capacidad para evolucionar tecnológicamente. De hecho, parece inevitable que lo hagamos.
Hacia la inevitable singularidad tecnológica
Como dice el neurocientífico y filósofo Sam Harris, teniendo en cuenta lo valioso que son el conocimiento y la tecnología, el ser humano nunca dejará de buscar mejoras en esos campos. El ser humano nunca dejará de progresar tecnológicamente. Nunca ningún gobierno, empresa o institución internacional recomendaría dejar de aprender, dejar de extender las fronteras del conocimiento o dejar de innovar. No concebimos la posibilidad de dejar de hacer mejoras en nuestra tecnología de manera permanente. De esta manera, parece evidente que el ser humano va a seguir progresando tecnológicamente, haciendo sus máquinas cada vez más inteligentes. Lo que nos lleva, inevitablemente, a que tarde o temprano acabaremos desarrollando ordenadores, programas, máquinas y tecnologías más inteligentes que nosotros.

En realidad no importa el momento en el que ocurra o la rapidez del proceso, lo importante realmente es el hecho de que ocurrirá. Llegará tarde o temprano, pero llegará. Ese momento en el que se de la singularidad, y en el que el ser humano no sea el ser más inteligente del planeta. En un escenario en el que máquinas inteligentes sean capaces de crear otras máquinas inteligentes, el ser humano podría sufrir una especie de marginación intelectual, debido a que sería intelectualmente inferior a los robots.
Algunas de las razones que cita Sam Harris para apoyar la idea de que el ser humano alcanzará inevitablemente la creación de inteligencias artificiales superiores son estas:
• El ser humano no se encuentra actualmente en su pico de conocimiento ni de desarrollo. No estamos todavía explotando nuestras capacidades intelectuales ni tecnológicas en todo su potencial. Por lo tanto el ser humano seguirá mejorando estas capacidades, enunciando mejores teorías que expliquen el Universo, conociendo mejor la Naturaleza… y construyendo mejores tecnologías.
• La industria de la inteligencia artificial reporta enormes beneficios económicos. Un factor clave para que las empresas sigan promoviendo avances en este campo, creando un escenario de competición continua que sin duda acelerará los seguros progresos tecnológicos. El primero que consiga crear una superinteligencia artificial habrá ganado la partida. Una peligrosa carrera hacia la singularidad.
La inteligencia es el factor que define la posición en la pirámide de poder animal. Lo que hace poderosos a los seres humanos sobre otras especies no son sus músculos o sus capacidades físicas, sino su inteligencia, su capacidad intelectual.
Que nuestro cerebro sea más inteligente que el cerebro de un delfín o de un chimpancé nos ha permitido acumular cultura y experiencia de generación en generación, y así inventar tecnologías y una organización social complejas. Pero estos atributos que ahora nos ponen en una posición espacial podrían pertenecer luego a las máquinas inteligentes del futuro, que podrían superarnos drásticamente en esa inteligencia que permite la innovación tecnología, la organización compleja, la planificación a largo plazo, etc.

Las especies que han conseguido aprender de la experiencia y planificar pensando en el futuro demuestran tener una inteligencia superior. Las máquinas, siguen necesitando a un programador humano que les otorgue una serie de datos con los que empezar a trabajar. Cuando consigamos crear algoritmos que sean capaces de aprender como lo hace un bebé humano, entonces estaremos muy cerca de crear inteligencias artificiales avanzadas.

En 2011 el famoso concurso Jeopardy tuvo un ganador inusual. Un robot llamado Watson y cargado con una inteligencia artificial diseñada por IBM venció a los demás concursantes demostrando una cultura casi infinita y, lo que es más sorprendente, la capacidad de reconocer el lenguaje humano. Sin duda este hecho fue un paso importante para conseguir inteligencias artificiales complejas.
El momento de singularidad se apoya en argumentos como el potencial de una máquina superinteligente, que excede por mucho a las capacidades humanas. El umbral en el procesamiento de información en una infraestructura artificial se encuentra mucho más allá de los límites del tejido biológico. Para empezar, una neurona biológica manda impulsos a unos 200 hertz, 200 veces por segundo, mientras que incluso un transistor actual opera a la frecuencia de los gigahercios. Las neuronas propagan el impulso lentamente a lo largo de los axones, a un máximo de 100 metros por segundo, pero en los ordenadores, las señales pueden viajar a la velocidad de la luz. Además, hay diferencias físicas relativas al puro tamaño: un cerebro humano tiene que caber dentro de un cráneo, pero un ordenador puede ser del tamaño de un almacén o un edificio.

Las máquinas del futuro como; Terminator, Matrix y el Apocalipsis.que son apuestas de mentes brillantes y estudiosas como la de Stephen Hawking, que aseguraba que “el desarrollo total de la inteligencia artificial podría propiciar el fin de la raza humana”, o Elon Musk, que advierte que “liberar energía es fácil: lo difícil es contenerla”.
¿Sabremos contener el poder de la inteligencia artificial? Se ha demostrado que, a medida que la tecnología mejora, crece su potencial destructivo, y la clave está en el uso que el ser humano hace de ella, quiere evitar que la tecnología con capacidad destructiva caiga en manos de grupos terroristas: no queremos que tengan el poder de destruir nuestra red informática, de acceder a nuestros datos o de diseñar armas autónomas.
En un estadio más avanzado, cuando hayamos sido capaces de desarrollar esta tecnología sin que ningún humano con malas intenciones se aproveche de ella, ¿cómo asegurar que la propia tecnología no se volverá contra nosotros?
Todo es cuestión de perspectiva. No debemos ver a los robots superinteligentes como seres malvados y con ansias de dominar el mundo, sino más bien ponernos en su lugar. ¿Cómo actuamos nosotros ante una hormiga? ¿cómo tratamos a los animales que nos acompañan en este planeta? Son inferiores a nosotros, y los vemos bajo esa óptica. Les podemos tratar bien o mal, pero siempre desde una posición de superioridad y atendiendo a nuestras preferencias.
La IA, llegara a vernos como nosotros vemos a un chimpancé. Sin malas intenciones (todo lo contrario, buscando preservar el mundo y la raza humana), los robots superinteligentes podrían considerar que lo mejor es limitar la población humana, exterminando a unos cuantos millones de personas. Según los cálculos perfectos de los robots, esa decisión sería la mejor entre todas las posibilidades, y beneficiaría tanto a humanos como a máquinas. Esto desde nuestra perspectiva sonaría horrible, pero desde el punto de vista de la IA podría ser la mejor estrategia para el bienestar general.
El ejemplo utilizado lleva al extremo lo que podría ocurrir, y la clave es entender que podemos llegar a un futuro en el que las situaciones y acciones se vean determinadas por las preferencias de las superinteligencias. Al ser los seres más inteligentes y poderosos, hay pocas razones que inviten a pensar que no harían uso de esa posición de superioridad para imponer sus ideas y políticas.

Nos creemos seres infinitamente superiores? ¿acaso no es así como nos ven los demás animales del planeta? Pues hora imaginad un mundo en el que el ser humano no es el animal más inteligente del planeta.
Las capacidades de las IA serán algunas como el aprendizaje más rápido, el trabajo infatigable, habilidades sin error, replicación más numerosa, inmutabilidad emocional… una serie de características que les harán efectivamente superiores a los humanos. Entonces, ¿qué futuro nos espera? ¿Esclavitud de las personas? ¿destrucción del ser humano? ¿dominio total de las maquinas? Un mundo como el de Matrix, donde hombres y máquinas luchan y destruyen el planeta, puede sonar demasiado apocalíptico, pero existe un precedente muy utilizado por los catastrofistas: en 2007 un cañón robotizado mató por error a nueve soldados en Sudáfrica. Evidentemente no lo hizo a propósito, pero la alarma se extiende entre la población: ¿qué harán las armas automatizadas cuando sean inteligentes? ¿cómo seleccionarán sus objetivos? ¿atacarán a población civil para acabar con un terrorista?
En Enero de 2015 una serie de personalidades firmaron un manifiesto advirtiendo de los peligros de la IA, y Hawking ya previó que “los humanos, limitados por una evolución biológica lenta, no podrán competir y serán superados”.
Conseguir diseñar robots inteligentes parece seguro, el reto es crear sistemas artificiales alineados con los valores humanos, y que siempre hagan lo que nosotros queremos que hagan. La pregunta es cómo codificaremos las máquinas para que nunca se vuelvan contra la humanidad.
En 1942 Isaac Asimov propuso una serie de leyes que debían incorporarse a los algoritmos que viajan por el sistema de circuitos y microchips que componen los cerebros positrónicos de los robots. Estas leyes establecen lo siguiente:
1. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
2. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Los programadores tendrán que descubrir cómo introducir los valores humanos en una maquina para que no solo siga al pie de la letra nuestra peticiones y órdenes, sino que además entienda la intención tras ellas.
Ian Winfield ya ha demostrado que un robot puede actuar éticamente sin entender nada de ética o moral: puso a una máquina en una situación extrema de tener que salvar a dos personas en peligro de muerte. En vez de escoger una de ellas, el robot automáticamente se decidió por rescatar a las dos.
En el caso de poder crear una IA perfecta, capaz de extrapolar las intenciones que tenemos los humanos, entonces no tendremos de qué preocuparnos. Además, si la inteligencia artificial termina siendo capaz de hacer todo o buena parte de nuestro trabajo intelectual mejor que nosotros, entonces Nick Bostrom asegura que tendremos en nuestras manos el último invento que tendrá que realizar la humanidad.
Si conseguimos crear una IA súper-inteligente, con buenas intenciones, con ética y moral, que no nos haga daño, que nos obedezca, que no destruya a la Humanidad, que funcione con energía solar y que sea servicial… entonces el futuro que se abre ante nosotros es el de Wall-E. En ese momento de singularidad el ser humano ya no tendrá que seguir pensando, innovando, creando, estudiando… el trabajo intelectual lo harán las máquinas. Contando con que del trabajo físico ya se habrán encargado previamente, ya no habrá tareas para las personas.
Estaremos de vacaciones, leyendo, viendo la televisión, haciendo deporte y disfrutando de la vida. Suena muy bien, pero esa sociedad futura se enfrentará a problemas como el desempleo o la obesidad y a debates existenciales profundos. Podremos estar todo el dia jugando a videojuegos, que no se distinguirán mucho de la vida real, y quizás recemos a un Dios digital, a un programa informático, como ya hacen los seguidores de la nueva religión Way to the Future. Que este futuro sea ciencia o ficción depende de nosotros mismos. ¿Hacia dónde vamos como sociedad si seguimos progresando?
Esto es todo muy posible que ocurra, pero determinar el futuro sin un bloque solido de partida es por lo menos, asustante