Con todos los avances en el campo de la inteligencia artificial, con Sora ocupando gran parte de los titulares, seguramente vuelve a la mente de muchos ese concepto de inteligencia artificial general o AGI.
El problema es que existen tantos conceptos que, muchas veces, no se llega a entender por completo de qué se está hablando y, precisamente, la AGI, es uno de esos términos del que muchas empresas como OpenAI habla de alcanzar en un futuro, pero que, a nivel general, suena un tanto extraño.
Para que te hagas una ligera idea, aunque en el vídeo que tienen más abajo lo podrás entender a la perfección, la AGI es una forma avanzada de inteligencia artificial que tiene la capacidad de comprender, aprender y resolver tareas de manera similar o incluso superior a la inteligencia humana.
A diferencia de la IA que existe ahora, que se especializa en tareas específicas como reconocimiento de voz, análisis de datos, generación de texto o imagen, la AGI aspira a tener un entendimiento más completo y adaptable del mundo que te rodea. En esencia, busca emular la capacidad cognitiva humana en una máquina.
Ya hay empresas que están empezando a adentrarse en las posibles aplicaciones de la AGI
Según una encuesta realizada en 2020 por el Global Catastrophic Risk Institute (GCRI), en la actualidad hay 72 proyectos identificados de I+D sobre AGI —a fecha de 2024 habrá incluso más— en manos de instituciones académicas, empresas y diversas entidades gubernamentales. La encuesta sugiere que los proyectos tienden a ser más pequeños, menos centrados en objetivos académicos y más en objetivos humanitarios.
Entre los protagonistas más destacados de los proyectos de AGI se encuentra la Universidad Carnegie Mellon con su ACT-R, que puede describirse como una forma de especificar cómo se organiza el propio cerebro para que los módulos de procesamiento individuales produzcan cognición.
Microsoft Research AI es otra de las empresas punteras que está adentrándose en la AGI y ha comenzado una serie de proyectos de investigación, como la creación de un conjunto de datos para combatir la discriminación para modelos de aprendizaje automático.
Sin ir más lejos y si lo recuerdas, Sam Altman fue fulminantemente echado de OpenAI por un proyecto llamado Q* —entre otras tantas especulaciones—, que se posicionaba como un enorme avance en la búsqueda de la inteligencia artificial general (AGI) y que fue notificado vía carta a la junta —tomando la decisión de echarle en consecuencia—.
Un objetivo difícilmente alcanzable al que muchos le tienen miedo
Partiendo de la base de que se considera este avance como uno de los grandes logros de la humanidad al conseguir que la IA sea tan inteligente como un humano, matizar primero un pequeño aspecto que se recoge a la perfección en las palabras de Sophie Callies, experta en IA, neurociencia y filosofía:
«Decir que cualquiera, incluida la IA, puede alcanzar el nivel de la inteligencia humana, ya sea imitándola o realizándola, se basa en la premisa de comprender qué es realmente la inteligencia humana… pero nosotros, los neurocientíficos, no sabemos mucho sobre el funcionamiento de nuestro cerebro y sus relaciones con nuestro cuerpo… Así que sí, estamos progresando, ¡pero persisten tantos misterios! Y dudo mucho que en un futuro próximo lo hayamos solucionado todo».
Como ya se ha explicado en otras ocasiones, se supone que las aplicaciones AGI replican la conciencia humana y las habilidades cognitivas sin problemas. Sin embargo, los desarrolladores de esta tecnología no pueden crear redes neuronales que puedan imitar la conciencia artificial en un laboratorio, al menos no todavía. La conciencia humana es demasiado abstracta y asimétrica.
Otro problema que se puede observar es que la IA, a pesar de todas sus increíbles capacidades, todavía se ejecuta en algoritmos y programas informáticos meticulosamente creados que, por un lado, pueden fallar y dejar de funcionar como ocurre con el resto de las herramientas y, por otro, cada decisión está respaldada por análisis y procesamiento de datos humanos.
Aquí realmente el miedo debería residir en cómo determinados gobiernos o cuerpos de seguridad o incluso algunas empresas harían/hacen uso de esta tecnología más que si esta es capaz de alcanzar las capacidades cognitivas humanas.
En última instancia, el camino hacia AGI va a requerir de grandes avances tecnológicos y consideraciones éticas —y una buena regulación— a medida que se vaya acercando el progreso a la creación de sistemas con inteligencia similar a la humana porque quizá decir que se conseguirá una equivalencia IA-humano puede que sea demasiado osado.
Además, que este progreso veas que es exponencial no significa siquiera que se logre en algún momento de nuestra existencia. Si las empresas quieren fijar fechas como ese 2050 o incluso 2029 —Ray kurzweil, ingeniero de Google, o incluso Elon Musk pronostican esta última fecha para la AGI— tan mediatizado por algunos, es bastante probable que detrás se esconda un entramado de marketing más que de realidad —aunque quién sabe—.
«La inteligencia humana es un concepto que se encuentra en la encrucijada de muchas disciplinas. Es complejo, fascinante, precioso y quizás incluso, me atrevo a decirlo, inimitable. Por otro lado, este tipo de discurso mantiene vivos los «mitos» y los «temores de la IA», aprovechándose del desconocimiento de los no expertos (es decir, el 99,99% de la población)», comenta Sophie Callies.
Notiespartano/800Noticias