El creador de ChatGPT y más de 300 expertos advierten que la inteligencia artificial «plantea un riesgo de extinción»

Slide Heading
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
Click Here

Sam Altman (OpenIA), líderes tech y científicos hicieron una comparación con «pandemias y guerras nucleares».

Sam Altman, CEO y fundador de OpenAI, testificó ante el Congreso de EE.UU. a mediados de mes. Foto Reuters.

Un grupo de científicos y líderes de la industria de la inteligencia artificial (IA) firmó este martes una declaración conjunta preocupante: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.

La declaración lleva la firma de personalidades como Demis Hassabis, director ejecutivo de Google DeepMind, Dario Amodei, de Anthropic, y el fundador de OpenAI, Sam Altman, entre otros.

Además lleva la firma de pesos pesado en el ámbito científico: Geoffrey Hinton -quien fue bautizado como el «padrino» de la IA y tuvo parte de su carrera en Google- y Youshua Bengio, dos de los tres investigadores que ganaron el Premio Turing 2018 (el Nobel de la informática) por sus aportes a la IA.

El texto fue publicado en el sitio del Center for IA Safety, una organización sin fines de lucro de San Francisco. Tiene apenas una oración y no explica mucho: no fundamenta por qué habría un “riesgo de extinción” asociado a la inteligencia artificial ni por qué hacen una comparación con pandemias y guerras nucleares.

Geoffrey Hinton, pionero en inteligencia artificial, dejó Google a principios de mes para advertir «los peligros» de esa tecnología. Foto Archivo

La declaración se da en un año en el que la inteligencia artificial generativa atraviesa un crecimiento exponencial: desde que se popularizó ChatGPT para crear textos y Midjourney o Stable Difussion para imágenes, todos los gigantes tech comenzaron a desarrollar sus sistemas en esta dirección, como hizo Google con Bard o Microsoft con Copilot, ambos asistentes de IA para brindar experiencias más accesibles a sus usuarios.

Sin embargo, es la segunda vez en el año que la IA es cuestionada de manera pública y categórica. En marzo de este año, Elon Musk y más de mil expertos firmaron un pedido para hacer una pausa de seis meses en la investigación sobre las IA tan potentes como GPT-4, al advertir de «grandes riesgos para la humanidad».

Tras la carta, Musk insistió en que la IA podría “causar la destrucción de la civilización”. Luego, Bill Gates, fundador de Microsoft, anticipó la desaparición de los docentes. Y Warren Buffet, legendario inversionista -y amigo de Gates- también comparó a la inteligencia artificial con una bomba atómica.

En el caso de esta nueva declaración conjunta, la diferencia es que explica muy poco y arriesga un escenario catastrófico sin fundamentarlo.

Qué es el “riesgo existencial” y cuán real es.

Foto AFP

Este tipo de planteo responde a lo que en el campo se denomina “riesgo existencial” de la inteligencia artificial.

«La idea de riesgo existencial tiene que ver con un concepto mal fundado, que implica que una inteligencia superior a la humana podría tomar decisión de extinguir a la humanidad. Un poco va en la línea de la película Terminator y el programa Skynet, que toma conciencia de sí y decide volverse contra los humanos», explica a Clarín Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda.

«Estas tecnologías como redes neuronales adversativas y machine learning no tienen ninguna posibilidad de constituir algo así: es una tecnología muy elemental, basada en patrones estadísticos que se reconocen. Las de generación como ChatGPT son lo mismo pero complementario -sistemas generativos a partir de clasificaciones-, no conllevan ningún riesgo de un tipo de inteligencia que pueda ser una amenaza existencial a la humanidad», agrega.

Las redes neuronales adversativas generan nuevos conjuntos de datos por la oposición de distintos algoritmos. El machine learning, o aprendizaje automático, es una rama de la inteligencia artificial que programa técnicas que hacen que las computadoras «aprendan»: mejoran su desempeño con el uso (algo muy patente en ChatGPT, por ejemplo).

La idea del exterminio de la humanidad no deja de ser una quimera para Blanco: «Que eso sea un riesgo a largo plazo es tan probable como que caiga un asteroide gigante y destruya la Tierra: que alguna tecnología podría derivar en entidades cognitivas híbridas o artificiales y que ellas estén interesadas en destruir la raza humana es una posibilidad completamente remota», agrega.

Ahora bien, para el experto y también docente de la Facultad de Matemática, Astronomía, Física y Computación de la UNC (Córdoba), sí hay riesgos concretos con estas tecnologías, que no tienen que ver con lo existencial.

«Hay riesgos laborales, de pérdidas de puestos de trabajo. De lidiar con ciertas evoluciones que hacen que fingir y engañar sea mucho más factible (fake news, desinformación): eso es un hecho y es uno de los problemas. Todo esto tiene consecuencias difíciles de medir hoy, pero ya impactan en lo social: ahí sí hay una preocupación genuina», advierte.

También señala como preocupaciones la concentración de estas tecnologías en un puñado pequeño de empresas: «Es importante poder distinguir preocupaciones genuinas y posibles soluciones -que no necesariamente coincidan con lo que las corporaciones persiguen- de preocupaciones especulativas e improbables en muchos de los futuros más cercanos».

«Además, efectivamente, a diferencia de una pandemia o una guerra nuclear, el desarrollo de la IA no está en la esfera pública, cualquier grupo puede estar haciendo grandes innovaciones en IA por fuera del escrutinio de los estados u otras organizaciones», sentencia.

De este modo, el escenario que bajo el cual se desarrollan las tecnologías de inteligencia artificial es incierto. «Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan ampliamente los riesgos«, aseguró Altman en su declaración ante el Congreso.

Las publicaciones como la de este martes no parecen apoyar su perspectiva, en lo que corona una estrategia paradójica: quienes están desarrollando las herramientas más poderosas de inteligencia artificial son los que firman una declaración que advierte sobre el posible exterminio de la humanidad.

https://www.clarin.com/tecnologia/creador-chatgpt-300-expertos-advierten-inteligencia-artificial-plantea-riesgo-extincion-_0_FNaT4w7hlT.html

EscuchaloAca

Este medio no se hace responsable por las opiniones vertidas en los artículos publicados. Las expresiones e ideas de los columnistas no reflejan necesariamente la opinión de LeeloAca.

By Pochitama.dev © 2023 LeeloAca.com.ar – Todos los derechos reservados.
Abrir chat
1
Comunícate con nosotros por Whatsapp
Escanea el código
Hola te comunicaste con Leelo Acá, déjanos a continuación tu consulta y te contactaremos con un asesor, muchas gracias !!