“Con suerte, decidirán mantenernos como mascotas.”
Marvin Minsky
El evento más grande en la historia del ser humano, empieza a 
vislumbrarse poco a poco, como un sol, en el horizonte y no es posible 
observar ese “amanecer” sin sentir cierta inquietud interior... 
Me
 refiero al momento en que la raza humana, sea relevada por máquinas 
como la especie más inteligente de la creación: La llegada de la 
superinteligencia artificial.
Los grandes poderes del mundo, apenas están comenzando a comprender 
este hecho que las grandes corporaciones ya conocían desde hace algún 
tiempo. Pero, lo que probablemente nadie ha entendido por completo, es 
cómo, si la inteligencia artificial continúa evolucionando en su forma 
actual, ese mismo evento podría llegar a convertirse en una catástrofe 
para la humanidad.
Para entender cómo y por qué esto puede 
llevarnos a una problemática seria, debemos entender las bases con las 
que se construyen la mayoría de los sistemas de inteligencia artificial.
 
Este “modelo estándar”, se basa en el hecho de que las máquinas,
 a diferencia de los humanos, no tienen sus propios objetivos. Somos 
nosotros los que les decimos qué deben hacer y, entre más inteligente es
 la máquina, mayor es la probabilidad de que logre su objetivo.
Desafortunadamente,
 este modelo es un error porque, si programamos una máquina con el 
objetivo equivocado, y esta es más inteligente que nosotros, ya 
perdimos. 
Imaginemos que logramos diseñar un sistema de control climático 
superinteligente y le damos la tarea de regresar los niveles de CO2 a 
los de una época preindustrial: ¿Qué tal si decide que la mejor 
solución, es reducir la población humana a cero?... 
Algunos dirán
 que siempre tendremos la opción de apagar la máquina, pero el problema 
es que la máquina ya habrá anticipado todas las formas en las que el 
humano podría interferir con su objetivo, y habrá tomado todos los pasos
 necesarios para evitar que esto suceda.
La solución que proponen 
algunos de los teóricos e investigadores más importantes del ramo como 
el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la
 forma en la que pensamos en el desarrollo de la inteligencia 
artificial: Debemos construir máquinas que no tengan certeza absoluta 
acerca de cuáles son sus objetivos.
Esto implica que, no importa 
cuan inteligentes lleguen a ser las máquinas, siempre estarán 
subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado,
 aceptarán ser corregidas y, lo más importante, permitirán que las 
desconectemos cuando así se requiera.
Otra posibilidad, menos 
explorada pero no tan distante, es que el hombre logre una inteligencia 
superior a la de las máquinas gracias al desarrollo de la biotecnología,
 creando así una nueva raza de homínido más evolucionada que el Homo sapiens.
 Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos 
verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie 
socialmente marginada? ¿Algo peor?
La solución, sea cual sea, debe
 estar lista antes que las capacidades de los sistemas de inteligencia 
artificial para tomar decisiones en el mundo real, excedan las del ser 
humano como especie.
Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.
Publicado en: https://www.elsoldemexico.com.mx/analisis/ia-compatible-con-la-humana-4305087.html
Twitter: @jorgegavino
Facebook: JorgeGavinoOficial
Facebook: JorgeGavinoOficial
 
No hay comentarios:
Publicar un comentario