«Apagad la IA o moriremos todos», avisa uno de los mayores expertos en la materia.

Eliezer Yudkowsky explica en un artículo sus motivos para no firmar la carta que pide pausar el desarrollo de la IA porque la considera insuficiente.

La explosión creativa que ha experimentado la inteligencia artificial, más en concreto los sistemas de aprendizaje profundo como ChatGPT, han creado una gran división entre sus principales expertos, también en España. Frente a las voces que ven como una revolución el momento que se está viviendo, hay otras que  PIDEN TOMAR CON CAUTELA ESTAS NUEVAS HERRAMIENTAS. Incluso están surgiendo voces que adoptan una postura mucho más drástica y lanzan catastróficos presagios. «Todos moriremos, incluidos los niños que no eligieron esto y no hicieron nada malo», indica Eliezer Yudkowsky, uno de los pioneros de esta tecnología, en un articulo publicado en la revista TIME.

Los importantes beneficios que aporta esta tecnología y todos sus avances contrastan con los distintos peligros que se están manifestando y que han animado a académicos y personalidades como Elon Musk o Steve Wozniak a firmar un manifiesto en el que piden una moratoria, una pausa en el desarrollo de estas IAs. Lo que piden Musk y otros expertos es frenar unos meses el desarrollo de herramientas como GPT-4 para regular y analizar el posible impacto negativo que se avecina.

No todo el mundo dentro de la comunidad de expertos en tecnología está de acuerdo con esta carta publicada hace unos días. Los hay que la consideran exagerada, pero también quien considera que se han quedado muy cortos. Es el caso de Yudkowsky, que afirma que no la ha firmado porque no avisa del verdadero peligro: la creación de una IA más inteligente que los seres humanos.

Un ejército de robots podría potenciarse con inteligencia artificial iLexx iStock Omicrono

Representación de máquina y humano realizada por la IA de Bing Bing Image Generator Omicrono.

La alineación de la IA se refiere a que el sistema persiga los objetivos marcados por sus desarrolladores y no otros. El propio Sam Altman, CEO de OpenAI, ha marcado este como uno de sus objetivos de seguridad, perseguir la capacidad técnica para «alinear una superinteligencia» y la coordinación entre la mayoría de agentes en la industria para crear medidas de protección para la humanidad.

«Si alguien construye una IA demasiado poderosa, en las condiciones actuales, es de esperar que todos los miembros de la especie humana y toda la vida biológica de la Tierra mueran poco después», asegura Yudkowsky. Y es que su principal advertencia tiene que ver con las capacidades de la inteligencia artificial para extender su poder al mundo real. «Una IA suficientemente inteligente no permanecerá confinada a los ordenadores durante mucho tiempo. En el mundo actual se pueden enviar cadenas de ADN por correo electrónico a laboratorios que producirán proteínas a la carta, lo que permitirá a una IA inicialmente confinada en Internet construir formas de vida artificial o pasar directamente a la fabricación molecular postbiológica».

 

Por este motivo, en lugar de pausar unos meses el trabajo en la IA, lo que pide es detener totalmente su evolución de forma inmediata, indefinida y a nivel mundial, para que no se produzca un desequilibrio entre unos países y otros. Mientras tanto, otros expertos menos catastrofistas recuerdan que esta tecnología sirve también para crear nuevos medicamentos, estudiar enfermedades y proteger a la humanidad de los efectos del cambio climático, entre otros beneficios que se perderían si se deja de trabajar en este campo

EscuchaloAca

Este medio no se hace responsable por las opiniones vertidas en los artículos publicados. Las expresiones e ideas de los columnistas no reflejan necesariamente la opinión de LeeloAca.

By Pochitama.dev © 2023 LeeloAca.com.ar – Todos los derechos reservados.
Abrir chat
1
Comunícate con nosotros por Whatsapp
Escanea el código
Hola te comunicaste con Leelo Acá, déjanos a continuación tu consulta y te contactaremos con un asesor, muchas gracias !!