“Con suerte, decidirán mantenernos como mascotas.”
Marvin Minsky
El evento más grande en la historia del ser humano, empieza a
vislumbrarse poco a poco, como un sol, en el horizonte y no es posible
observar ese “amanecer” sin sentir cierta inquietud interior...
Me
refiero al momento en que la raza humana, sea relevada por máquinas
como la especie más inteligente de la creación: La llegada de la
superinteligencia artificial.
Los grandes poderes del mundo, apenas están comenzando a comprender
este hecho que las grandes corporaciones ya conocían desde hace algún
tiempo. Pero, lo que probablemente nadie ha entendido por completo, es
cómo, si la inteligencia artificial continúa evolucionando en su forma
actual, ese mismo evento podría llegar a convertirse en una catástrofe
para la humanidad.
Para entender cómo y por qué esto puede
llevarnos a una problemática seria, debemos entender las bases con las
que se construyen la mayoría de los sistemas de inteligencia artificial.
Este “modelo estándar”, se basa en el hecho de que las máquinas,
a diferencia de los humanos, no tienen sus propios objetivos. Somos
nosotros los que les decimos qué deben hacer y, entre más inteligente es
la máquina, mayor es la probabilidad de que logre su objetivo.
Desafortunadamente,
este modelo es un error porque, si programamos una máquina con el
objetivo equivocado, y esta es más inteligente que nosotros, ya
perdimos.
Imaginemos que logramos diseñar un sistema de control climático
superinteligente y le damos la tarea de regresar los niveles de CO2 a
los de una época preindustrial: ¿Qué tal si decide que la mejor
solución, es reducir la población humana a cero?...
Algunos dirán
que siempre tendremos la opción de apagar la máquina, pero el problema
es que la máquina ya habrá anticipado todas las formas en las que el
humano podría interferir con su objetivo, y habrá tomado todos los pasos
necesarios para evitar que esto suceda.
La solución que proponen
algunos de los teóricos e investigadores más importantes del ramo como
el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la
forma en la que pensamos en el desarrollo de la inteligencia
artificial: Debemos construir máquinas que no tengan certeza absoluta
acerca de cuáles son sus objetivos.
Esto implica que, no importa
cuan inteligentes lleguen a ser las máquinas, siempre estarán
subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado,
aceptarán ser corregidas y, lo más importante, permitirán que las
desconectemos cuando así se requiera.
Otra posibilidad, menos
explorada pero no tan distante, es que el hombre logre una inteligencia
superior a la de las máquinas gracias al desarrollo de la biotecnología,
creando así una nueva raza de homínido más evolucionada que el Homo sapiens.
Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos
verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie
socialmente marginada? ¿Algo peor?
La solución, sea cual sea, debe
estar lista antes que las capacidades de los sistemas de inteligencia
artificial para tomar decisiones en el mundo real, excedan las del ser
humano como especie.
Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.
Publicado en: https://www.elsoldemexico.com.mx/analisis/ia-compatible-con-la-humana-4305087.html
Twitter: @jorgegavino
Facebook: JorgeGavinoOficial
Facebook: JorgeGavinoOficial
No hay comentarios:
Publicar un comentario