El proyecto de reglamento para
regular la Inteligencia Artificial (IA) en la Unión Europea ha vuelto a llevar
a la IA a la primera plana de los medios de comunicación tras el vodevil vivido
en OpenAI, la empresa creadora de chatGPT, hace unas semanas. El despido fulminante
de Sam Altman, CEO y cofundador de openAI, seguido de su sorprendente retorno por
la puerta grande pocos días más tarde, ha provocado una auténtica conmoción que
ha trascendido el mundo tecnológico. Aunque se desconocen los detalles
concretos de lo sucedido, no hay dudas de que estamos ante una batalla más de
la gran guerra que se está librando por el control de la Inteligencia
Artificial (IA). Una guerra que habla por sí misma de su tremendo potencial.
Un vodevil en el epicentro de la
alta tecnología
OpenAI arrancó su andadura en 2015
como compañía sin ánimo de lucro promovida por Sam Altman entre otros, con el
objetivo de desarrollar una IA que sea segura y beneficiosa para la humanidad. Al
poco tiempo resultó evidente que las necesidades de financiación eran muy
superiores a las donaciones privadas, por lo que en 2018 creaban una empresa
subsidiaria con fines de lucro que comenzó a recaudar miles de millones de
dólares de inversores.
Desde entonces OpenAI se ha
convertido en una entidad con dos almas; una mantiene el espíritu original de
desarrollar una IA pensando en el futuro de la humanidad, mientras la otra
persigue beneficios económicos como cualquier otra empresa con fines
lucrativos. Hasta la fecha, la junta directiva había estado formada por
científicos e ingenieros fieles a los objetivos originales, más interesados en
los aspectos tecnológicos que en las finanzas. Pero este espíritu podría haber
cambiado tras el viaje de ida y vuelta de Sam Altman seguido del nombramiento
de una nueva junta. Cosas de ese poderoso señor que es Don Dinero…
Si se tratase de un asunto
meramente financiero el vodevil no tendría mayor trascendencia que la de
provocar tristeza. Sería un caso más, entre tantos otros, en el que una entidad
originariamente altruista acaba por doblegarse ante los intereses financieros.
Sin embargo, en el caso de openAI se añade una enorme preocupación: la del desarrollo
sin freno ético alguno, y de manera acelerada, de una herramienta que podría
convertirse en una amenaza para la humanidad.
Llevando al límite la potencia de la
computación
Bajo la denominación de IA se
encuadra cualquier programación algorítmica de una máquina con el objetivo de imitar o
simular la inteligencia humana. Esto incluye a la programación tradicional,
que se codifica en base a cálculos, árboles de decisión y reglas.
Los llamados modelos de
aprendizaje automático (machine learning) han supuesto un avance
considerable en las técnicas de programación. Con estos modelos se enseña a la
máquina a reconocer patrones mediante un proceso de aprendizaje, sustituyendo
la programación explícita tradicional por una variedad de algoritmos
matemáticos que incorporan técnicas para hacer predicciones y/o tomar
decisiones.
Las redes neuronales son un
tipo de modelo de aprendizaje automático particularmente potente, cuya
arquitectura de programación está inspirada en la estructura de las neuronas en
el cerebro humano, de ahí el nombre que reciben. Una red neuronal está formada
por unidades de cálculo a las que se denomina neuronas, organizadas en
capas con conexiones ponderadas entre sí. A través de estas conexiones
ponderadas es como la red aprende a identificar patrones y relaciones entre
datos. Cuando la estructura de la red cuenta con múltiples capas se la denomina
red neuronal profunda (deep learning). A medida que aumenta el
número de capas, lo que también es conocido como profundidad de la red, la
capacidad de aprender representaciones complejas de datos se multiplica.
chatGPT está construido sobre una
red neuronal profunda, la red GPT desarrollada por openAI, siguiendo un modelo
denominado transformer que ha mostrado ser muy eficaz para el procesamiento
del lenguaje natural. La red ha sido entrenada con una enorme cantidad de datos
que le han permitido aprender patrones lingüísticos, contextuales y semánticos,
así como a responder preguntas complejas. chatGPT pertenece a
la categoría de inteligencias artificiales generativas ya que su
arquitectura le capacita para generar nuevo contenido que mantiene
características similares y coherentes con los datos de entrenamiento. Así, no se limita a
reconocer patrones y devolver respuestas predefinidas, sino que es capaz de
generar respuestas originales basadas en el contexto proporcionado en la
conversación.
Toda la IA que ha sido
desarrollada hasta la fecha se encuadra dentro de lo que se denomina IA
débil, pues su implementación técnica está enfocada a la resolución de
tareas específicas. Los sistemas de reconocimiento de voz, de recomendación de
contenidos, o la automatización de procesos industriales son ejemplos de IA
débil. La IA generativa, cuyo objetivo es la generación de nuevos contenidos ya
sea en forma de imágenes, de datos o, como es el caso de chatGPT, de textos, es
otro ejemplo de IA débil pese a lo fascinante que nos pueda parecer su
funcionamiento.
En un futuro se pretende ir dotando
a la IA de habilidades menos específicas y más flexibles, es decir, diseñar
arquitecturas que la capaciten para entender, aprender y aplicar
conocimientos en un espectro de tareas mucho más amplio. El objetivo final
sería conseguir lo que se denomina una IA general, también conocida como
la “singularidad tecnológica”, que dotaría a la máquina de la capacidad
de aplicar inteligencia en una amplia variedad de dominios hasta alcanzar la
versatilidad y adaptabilidad de la inteligencia humana a la que, sobre el
papel, igualaría en términos de las tareas cognitivas que es capaz de realizar pero
superándola en potencia (velocidad, información almacenada…).
De manera aún más especulativa se baraja la
posibilidad de que la IA llegase algún día a ser consciente, algo que hoy por
hoy pertenece al terreno de la ciencia ficción. La conciencia continúa siendo
explorada en el ámbito de la filosofía, sin ser comprendida por la ciencia.
Sabemos que está relacionada con la actividad cerebral, un campo de investigación
que se encuentra en pleno desarrollo, pero desconocemos su naturaleza. De la
amplia variedad de habilidades dotadas por la conciencia a los humanos, como son
la capacidad de procesar información, la experiencia subjetiva, la
auto-reflexión, las emociones y sentimientos o el sentido ético, sólo conocemos
las reglas del procesamiento de información, siendo así la única habilidad que somos
capaces de implementar en una máquina.
Beneficios y amenazas de la IA
Demonizar la
tecnología al estilo ludita es tan poco recomendable como convertirla en un
dios todopoderoso al que delegar los problemas, según defienden los
tecno-optimistas en connivencia con los tecno-oportunistas. Ni demonio, ni
tampoco dios: la tecnología es neutra, no es ni buena, ni mala. No puede
decirse lo mismo del uso que hacemos de ella, etiquetable como “bueno” o “malo”
según si trae consigo beneficios, o perjuicios. Sirva como ejemplo la
tecnología más simple que existe, un palo; utilizado para varear un olivo, o
como bastón, el palo se convierte en una tecnología beneficiosa, pero si se usa
para agredir a alguien se transforma en un arma capaz de provocar daño. Ni que
decir tiene que cuanto más potente es una tecnología los beneficios obtenidos
pueden ser mayores pero, correspondientemente, también pueden serlo los daños. Dependerá del
uso, bueno o malo, que se le dé.
Con mucha diferencia la IA es la
tecnología más potente desarrollada por el ser humano hasta la fecha. De hecho,
nos está cambiando la vida a una velocidad y con una profundidad que no había
sido anticipado. Los enormes beneficios que la IA ha traído consigo son
innegables, e innumerables: desde herramientas online de traducción hasta un acceso
rápido a la información, sistemas avanzados de asistencia médica y diagnóstico
de enfermedades, automatización de tareas tediosas, optimización de procesos
empresariales...
Pese a todos estos avances que,
mirados en retrospectiva, parecen de ciencia ficción, lo cierto es que nos ha
tocado vivir una época particularmente preocupante y no sólo por la magnitud de
la crisis climático-ambiental que afrontamos. La cronificación de la guerra,
cuyo horror es ahora retransmitido en directo, y el avance de la extrema
derecha se encuentran entre los muchos síntomas que delatan una sociedad que ha
hecho del egoísmo cegador, junto a la ambición, su sello de identidad. A esto
se suman las tácticas de empoderamiento de la ignorancia empleadas por algunos
poderes fácticos, que están estimulando una involución cultural al infantilizar
las mentes para hacerlas más dóciles mientras son derivadas hacia el narcisismo
con el auge de las redes sociales y sus múltiples influencers, followers,
selfies, likes.
En un caldo de cultivo semejante
no es de extrañar que se hayan elevado voces de preocupación por los avances de
la IA. En marzo de 2023, cientos de empresarios y presidentes de numerosas
compañías tecnológicas junto a intelectuales, académicos e investigadores
especializados en la IA firmaron una carta abierta avisando del peligro de la
falta de regulación de la IA, poniendo el foco sobre OpenAI. En la carta pedían
una pausa de al menos 6 meses en los experimentos más potentes, hasta que el
mundo logre un consenso internacional que garantice que estos sistemas “sean
más precisos, seguros, interpretables, transparentes, robustos, neutrales,
confiables y leales”.
Dos meses más tarde, 350
ejecutivos de las principales empresas desarrolladoras de IA, académicos e
investigadores expertos firmaban un nuevo manifiesto alertando de que una IA
avanzada sin regular representa un peligro de extinción para la humanidad: “Mitigar
el riesgo de extinción de la IA debería ser una prioridad mundial junto a otros
riesgos a escala social como las pandemias y la guerra nuclear”. Entre los
impulsores de esta petición se encontraba toda la plana mayor de OpenAI, el
jefe de tecnología de Microsoft, el líder de Google DeepMind junto a 38 de sus
ejecutivos, investigadores y profesores de universidad y representantes de
tecnológicas más pequeñas como Anthropic, Stability AI o Inflection AI.
Tras el sorprendente viaje de ida
y vuelta de Altman también parece haber una carta, en este caso enviada por los
investigadores senior de openAI a la dimitida junta directiva, en la que alertan
de la potencial amenaza para la humanidad que podría suponer Q*, el nuevo
proyecto en el que están trabajando. Si bien no han trascendido los detalles de
la carta ni tampoco del proyecto, se sabe que openAI está trabajando en una
nueva red profunda que incorpora un algoritmo de aprendizaje por refuerzo
denominado Q-learning basado en una función matemática llamada Q. La
arquitectura de esta red la capacitaría para la resolución de problemas
matemáticos complejos, lo que para algunos expertos supone un paso adelante en
el camino hacia la IA general.
Combinada con la robótica la IA abre
la puerta a la utopía, o a la distopía. Entre sus múltiples amenazas se
encuentran los severos
problemas de disonancias cognitivo-emocionales que pueden llegar a provocar en
una sociedad que, por inverosímil que parezca, ha comenzado a negar la
evidencia científica. La interrelación continuada con máquinas muy potentes,
capaces de proveer aquello que necesitamos sin apenas mediar esfuerzo, podría
producir una involución intelectual. También podría provocar deficiencias en nuestras
habilidades para las relaciones interpersonales si llegase a resultar más “cómodo”
la interacción con una máquina-esclava que con otro ser humano, con sus propias
demandas y necesidades.
La IA también afronta numerosos desafíos
éticos. Hay un peligro latente en los datos utilizados para los entrenamiento si
hay sectores sociales y/o ámbitos geográficos que estén infrarrepresentados,
sesgos indeseables que la IA potenciará. También hay preocupaciones relativas a
la asunción de responsabilidad y a la transparencia. Las redes neuronales
pueden tomar decisiones que tengan un impacto significativo en la vida de las
personas, pero por su propia arquitectura estas decisiones se toman en una
“caja negra”, no se puede trazar cómo han llegado a cada resultado, lo que
plantea severos dilemas éticos. Es en esta línea ética donde se enmarca el
proyecto regulatorio de la UE, que de salir adelante prohibirá la “identificación
biométrica a distancia en tiempo real en espacios de acceso público” por
parte de las autoridades, salvo que sea “estrictamente necesario",
o utilizar la IA para explotar “las vulnerabilidades de grupos específicos
de personas”.
A todos estos desafíos se suma el peligro de otros
posibles usos malintencionados de la IA que escapen a la (aún inexistente o en
fase de proyecto en el caso europeo) regulación. Por ejemplo, sabemos que la IA
está siendo una aliada imprescindible en la distorsión de la información que
circula por las redes, manipulada hasta el extremo de generar auténticas
“realidades de ficción”.
La irrupción de la IA también está
trastornando el mercado laboral, una deriva que promete ser exponencial en este
sistema ferozmente individualista que ha consagrado la propiedad como principal
derecho. Todo tiene propietario, y la IA no será una excepción. Resulta evidente que la
brecha entre la élite propietaria de las máquinas y el 99% restante irá
haciéndose cada vez más honda, conduciéndonos a un futuro de ficción distópica
en el que ese 99% restante estaría formado por extrabajadores que habrían
dejado de ser útiles para la élite, dueña de las máquinas y de todas las
riquezas naturales del planeta. ¿Es esta la distopía para la que se están
preparando los preppers multimillonarios de Silicon Valley?
Esta imagen tenebrosa contrasta con un
escenario utópico donde el poder tecnológico estuviese ecuánimemente repartido,
beneficiando a toda la humanidad. Liberados
del trabajo, los humanos dispondríamos de todo nuestro tiempo para disfrutar de
la naturaleza, del conocimiento, del arte, de las relaciones interpersonales… de
todo lo que nos hace humanos, que nunca podrá ser reemplazado por una máquina.
¿Nos dirigimos hacia una utopía, o hacia una distopía?
En las actuales circunstancias está claro que caminamos
derechos hacia la distopía, aunque un cambio radical del sistema político-económico-social-cultural
actual podría permitirnos efectuar un giro de timón. Es muy importante señalar
que este cambio resulta ser el mismo que el que se necesita con urgencia para
afrontar, con un mínimo de garantías de éxito, la crisis climático-ambiental.
Ahora bien, aviso para navegantes: el nuevo
sistema no puede ser diseñado e implementado exprofeso, así, sin más, pues los
sistemas sólo se consolidan cuando emergen de manera natural del colectivo
social. El cambio de sistema que necesitamos debe ir precedido de una profunda revolución
del marco mental de la sociedad actual, una revolución que consiga reemplazar los
antivalores que han sellado nuestra cultura como el egoísmo, la ambición, la
soberbia o la odiosa cosificación de la vida, por valores como la compasión, la
sinceridad, la humildad y la solidaridad. En definitiva, por los valores del amor, algo que jamás experimentará una máquina.
En tiempos de la IA resulta bastante obvio que
la humanidad sólo tendrá futuro si dejamos de comportarnos como máquinas sin
alma que compiten entre sí en un estrambótico empeño por acumular méritos
monetizables, y reaprendemos a pensar, a sentir y a actuar como lo que somos, seres
vivos de la especie sapiens.
¿Cuál sería tu elección?
Imagínate que eres un explorador espacial que
se presenta voluntario a una misión que durará varios años. La agencia espacial
garantiza que no te va a faltar absolutamente de nada durante todo el tiempo
que dure. Se trata de una misión con la que has soñado durante mucho tiempo y
para la que te has preparado a fondo, pero que plantea un enorme desafío: la
soledad. Ha sido diseñada para una única persona, sin posibilidades de
comunicación con la Tierra.
Para paliar la falta de compañía humana la
agencia espacial te da a elegir entre dos acompañantes no-humanos. Uno es un
robot biónico de última generación que simula a un humano casi a la perfección.
No se trata de un robot entrenado para la resolución de problemas, para eso ya
cuentas con los ordenadores de la nave, sino de un robot de compañía programado
para mantener una conversación de alto nivel de cualquier tema: ciencia,
literatura, filosofía, historia, poesía… Y no sólo eso: también es capaz de
simular sentimientos, tanto por medio del lenguaje como a través de expresiones
faciales y corporales tales como guiños o movimientos de cabeza y manos.
El otro acompañante no-humano es un bonobo muy bien educado, que entiende tu idioma y
sabe expresarse tanto por medio del lenguaje de sordos como a través de una
pizarra electrónica de lexigramas.
¿Qué compañía eliges? ¿La del robot programado
para simular que es un humano? ¿O la del bonobo?
(A petición, en lugar del bonobo la compañía
te permite llevar un perro, gato, loro… de tu elección)
Artículo publicado en enero de 2024 en El Asombrario
Comentarios
Publicar un comentario