28/12/19

IA ¿COMPATIBLE CON LA HUMANA?

“Con suerte, decidirán mantenernos como mascotas.”
Marvin Minsky

El evento más grande en la historia del ser humano, empieza a vislumbrarse poco a poco, como un sol, en el horizonte y no es posible observar ese “amanecer” sin sentir cierta inquietud interior...
Me refiero al momento en que la raza humana, sea relevada por máquinas como la especie más inteligente de la creación: La llegada de la superinteligencia artificial.
Los grandes poderes del mundo, apenas están comenzando a comprender este hecho que las grandes corporaciones ya conocían desde hace algún tiempo. Pero, lo que probablemente nadie ha entendido por completo, es cómo, si la inteligencia artificial continúa evolucionando en su forma actual, ese mismo evento podría llegar a convertirse en una catástrofe para la humanidad.
Para entender cómo y por qué esto puede llevarnos a una problemática seria, debemos entender las bases con las que se construyen la mayoría de los sistemas de inteligencia artificial.
Este “modelo estándar”, se basa en el hecho de que las máquinas, a diferencia de los humanos, no tienen sus propios objetivos. Somos nosotros los que les decimos qué deben hacer y, entre más inteligente es la máquina, mayor es la probabilidad de que logre su objetivo.
Desafortunadamente, este modelo es un error porque, si programamos una máquina con el objetivo equivocado, y esta es más inteligente que nosotros, ya perdimos.
Imaginemos que logramos diseñar un sistema de control climático superinteligente y le damos la tarea de regresar los niveles de CO2 a los de una época preindustrial: ¿Qué tal si decide que la mejor solución, es reducir la población humana a cero?...
Algunos dirán que siempre tendremos la opción de apagar la máquina, pero el problema es que la máquina ya habrá anticipado todas las formas en las que el humano podría interferir con su objetivo, y habrá tomado todos los pasos necesarios para evitar que esto suceda.
La solución que proponen algunos de los teóricos e investigadores más importantes del ramo como el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la forma en la que pensamos en el desarrollo de la inteligencia artificial: Debemos construir máquinas que no tengan certeza absoluta acerca de cuáles son sus objetivos.
Esto implica que, no importa cuan inteligentes lleguen a ser las máquinas, siempre estarán subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado, aceptarán ser corregidas y, lo más importante, permitirán que las desconectemos cuando así se requiera.
Otra posibilidad, menos explorada pero no tan distante, es que el hombre logre una inteligencia superior a la de las máquinas gracias al desarrollo de la biotecnología, creando así una nueva raza de homínido más evolucionada que el Homo sapiens. Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie socialmente marginada? ¿Algo peor?
La solución, sea cual sea, debe estar lista antes que las capacidades de los sistemas de inteligencia artificial para tomar decisiones en el mundo real, excedan las del ser humano como especie.
Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.


Publicado en: https://www.elsoldemexico.com.mx/analisis/ia-compatible-con-la-humana-4305087.html


Twitter: @jorgegavino
Facebook: JorgeGavinoOficial

No hay comentarios:

Publicar un comentario