¿Qué es la inteligencia artificial?

Si los humanos alguna vez desarrollan una inteligencia artificial súper inteligente, es posible que no haya forma de controlarla, dicen los científicos. 

La IA ha sido promocionada durante mucho tiempo como una cura para todos los problemas de la humanidad o como un apocalipsis al estilo Terminator . Sin embargo, hasta ahora, la IA no se ha acercado ni siquiera a la inteligencia a nivel humano. Pero controlar la inteligencia artificial avanzada podría ser un problema demasiado complejo para los humanos si alguna vez se desarrolla, según un artículo reciente publicado en el Journal of Artificial Intelligence Research . 

“Una máquina superinteligente que controla el mundo suena a ciencia ficción”, dijo en un comunicado de prensa Manuel Cebrián, uno de los coautores del artículo .

“Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría volverse incontrolable y peligroso para la humanidad en algún momento”.

Próximamente en una supercomputadora cerca de usted

El artículo de la revista argumenta que controlar la IA requeriría una tecnología mucho más avanzada de la que poseemos actualmente.

En su estudio, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndola si se considera dañina. Pero los autores encontraron que tal algoritmo no se puede construir.

“Si descompones el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruya el mundo podría detener inadvertidamente sus propias operaciones”. Iyad Rahwan, director del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano en Alemania, en el comunicado de prensa.

“Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”.

La IA verdaderamente inteligente puede estar aquí antes de lo que pensamos, argumenta Michalis Vazirgiannis , profesor de informática en la École Polytechnique de Francia. “La IA es un artefacto humano, pero se está convirtiendo rápidamente en una entidad autónoma”, dijo en un correo electrónico a Lifewire .

“El punto crítico será si/cuando ocurra la singularidad (es decir, cuando los agentes de IA tengan conciencia como una entidad) y, por lo tanto, reclamarán independencia, autocontrol y eventual dominio”.

La singularidad está llegando

Vazirgiannis no es el único que predice la inminente llegada de la súper IA. A los verdaderos creyentes en la amenaza de la IA les gusta hablar de la “singularidad”, que Vazirgiannis explica que es el punto de que la IA reemplazará a la inteligencia humana y “que los algoritmos de la IA se darán cuenta de su existencia y comenzarán a comportarse de manera egoísta y cooperativa”.

Según Ray Kurzweil, director de ingeniería de Google, la singularidad llegará antes de mediados del siglo XXI . “2029 es la fecha consistente que he predicho cuando una IA pasará una prueba de Turing válida y, por lo tanto, alcanzará los niveles humanos de inteligencia”, dijo Kurzweil a Futurism .

“Si no podemos limpiar nuestra propia casa, ¿qué código se supone que debemos pedirle a AI que siga?”

“He fijado la fecha de 2045 para la ‘Singularidad’, que es cuando multiplicaremos nuestra inteligencia efectiva mil millones al fusionarnos con la inteligencia que hemos creado”.

Pero no todos los expertos en IA piensan que las máquinas inteligentes son una amenaza. Es más probable que la IA que está en desarrollo sea útil para el desarrollo de fármacos y no muestra ninguna inteligencia real, dijo el consultor de IA Emmanuel Maggiori en una entrevista por correo electrónico. “Hay una gran expectación en torno a la IA, lo que hace que suene como si fuera realmente revolucionaria”, agregó. “Los sistemas de inteligencia artificial actuales no son tan precisos como se publicita y cometen errores que un humano nunca cometería”.

Tome el control de la IA, ahora

Puede ser difícil regular la IA para que no escape a nuestro control, dice Vazirgiannis. Las empresas, en lugar de los gobiernos, controlan los recursos que impulsan la IA. “Incluso los propios algoritmos suelen producirse y desplegarse en los laboratorios de investigación de estas entidades grandes y poderosas, generalmente multinacionales”, dijo.

“Es evidente, por lo tanto, que los gobiernos de los estados tienen cada vez menos control sobre los recursos necesarios para controlar la IA”. 

Algunos expertos dicen que para controlar la IA superinteligente, los humanos necesitarán administrar los recursos informáticos y la energía eléctrica. “Películas de ciencia ficción como The Matrix hacen profecías sobre un futuro distópico en el que la IA utiliza a los humanos como fuentes de bioenergía”, dijo Vazirgiannis.

“A pesar de las imposibilidades remotas, la humanidad debe asegurarse de que haya suficiente control sobre los recursos informáticos (es decir, grupos de computadoras, GPU, supercomputadoras, redes/comunicaciones) y, por supuesto, las plantas de energía que proporcionan electricidad, lo cual es absolutamente perjudicial para la función de AI.”

El problema con el control de la IA es que los investigadores no siempre entienden cómo esos sistemas toman sus decisiones, dijo Michael Berthold, cofundador y director ejecutivo de la firma de software de ciencia de datos KNIME , en una entrevista por correo electrónico. “Si no hacemos eso, ¿cómo podemos ‘controlarlo’?”

Agregó: “No entendemos cuándo se toma una decisión totalmente diferente en base a, para nosotros, aportes irrelevantes”. 

La única forma de controlar el riesgo de usar IA es asegurarse de que solo se use cuando ese riesgo sea manejable, dijo Berthold. “Dicho de otra manera, dos ejemplos extremos: no ponga a la IA a cargo de su planta de energía nuclear donde un pequeño error puede tener efectos secundarios catastróficos”, agregó.

“Por otro lado, la IA predice que si la temperatura de su habitación debe ajustarse un poco hacia arriba o hacia abajo, puede valer la pena el pequeño riesgo en beneficio de la comodidad de vida”.

Si no podemos controlar la IA, será mejor que le enseñemos modales, dijo el exingeniero informático de la NASA Peter Scott en una entrevista por correo electrónico. “En última instancia, no podemos garantizar la capacidad de control de la IA más de lo que podemos garantizar la de nuestros hijos”, dijo.

“Los criamos bien y esperamos lo mejor; hasta ahora, no han destruido el mundo. Para criarlos bien, necesitamos una mejor comprensión de la ética; si no podemos limpiar nuestra propia casa, ¿qué código se supone que debemos pedirle a AI que lo siga?”

Pero no se ha perdido toda esperanza para la raza humana, dice el investigador de IA Yonatan Wexler, vicepresidente ejecutivo de I+D de OrCam . “Si bien los avances son realmente impresionantes, mi creencia personal es que la inteligencia humana no debe subestimarse”, dijo en una entrevista por correo electrónico. “Nosotros, como especie, hemos creado cosas bastante sorprendentes, incluida la propia IA”.

La búsqueda de una IA cada vez más inteligente continúa. Pero sería mejor considerar cómo controlamos nuestras creaciones antes de que sea demasiado tarde.

Fuente: lifewire