Yann LeCun no firma cartas apocalípticas en las que se hace referencia a la rebelión de las máquinas. Mientras miles de investigadores alertan sobre los peligros, incluso existenciales, que esconde el desarrollo de la inteligencia artificial (IA), el vicepresidente de Meta, considerado uno de los tres padres de esta disciplina, es una de las grandes voces discordantes dentro de la comunidad científica.
No entiende el revuelo que se está generando ni el temor a la llegada de una superinteligencia que opaque a la humanidad.
En los últimos días, incluso ha llegado a tachar algunas de las preocupaciones de «ridículas». Ganador del premio Turing, y del Princesa de Asturias el año pasado, el científico compartió un rato con ABC la semana pasada con motivo del reciente evento AI Fair, que Meta celebró en la ciudad de París.
Para LeCun, esa máquina parlante capaz de responder, casi, cualquier pregunta del usuario llamada ChatGPT, la que ha puesto patas arriba internet y amenaza con transformar el mercado laboral, «no es un avance disruptivo, sino un buen producto de ingeniería con poco interés desde el punto de vista científico».
ChatGPT «un buen producto»
La visión del futuro de la IA del investigador de Meta es a largo plazo, con las vistas puestas a dentro de más de 10 años. Tiene claro que los modelos como GPT-4, el motor que mueve a ChatGPT, «no son ninguna solución»: «La inteligencia artificial entrenada solo con palabras y frases jamás se aproximará al entendimiento humano».
Para LeCun, esa máquina parlante capaz de responder, casi, cualquier pregunta del usuario llamada ChatGPT, la que ha puesto patas arriba internet y amenaza con transformar el mercado laboral, «no es un avance disruptivo, sino un buen producto de ingeniería con poco interés desde el punto de vista científico». La visión del futuro de la IA del investigador de Meta es a largo plazo, con las vistas puestas a dentro de más de 10 años. Tiene claro que los modelos como GPT-4, el motor que mueve a ChatGPT, «no son ninguna solución»: «La inteligencia artificial entrenada solo con palabras y frases jamás se aproximará al entendimiento humano».
«Ni razonan ni planean»
El científico remarca que estos programas, «realmente, no razonan ni planean»; en el fondo, son buenos para la asistencia en la escritura, pero nada más. Por poner un paralelismo con el ser humano, serían el equivalente de las áreas de Wernicke y Broca en nuestro cerebro, las que habilitan el habla. El hecho de que sean capaces de manipular el lenguaje, no significa que puedan hacer que pienses.
Además, los sistemas de IA generativa, capaces de crear texto o imágenes a demanda de quien teclea, «están en una vía muerta». Todavía falta mucho para que lleguen al nivel del intelecto «de un perro», como para pensar en que puedan superar a un humano. Las herramientas que, realmente, transformarán el mundo todavía estarían por llegar. «De aquí a 5 años habrá nuevos y mejores modelos», explica LeCun.
Cuando llegue el momento, posiblemente dentro de una década, el científico espera que sólo haya unos pocos modelos fundacionales que se impondrán al resto, ya que los sistemas son muy difíciles de entrenar, y requieren inmensidad de recursos.
Esta situación plantea un reto de gobernanza de datos: ¿Cómo se consigue que una IA sea neutral y no manipule en función de la información con la que ha sido preparada?. Para el investigador, la solución sería que los datos con los que se entrenen estos modelos sean abiertos, como la Wikipedia, para evitar sesgos o control sobre los mismos. La financiación tendría que partir de empresas y gobiernos.
Regular la IA
A pesar de las discrepancias con empresarios y colegas, el investigador francés está de acuerdo con la necesidad de regular la tecnología. Eso sí, se cierra en banda cuando se habla de crear leyes que restrinjan la investigación o el desarrollo de soluciones, como se ha sugerido en alguna de las cartas firmadas por empresarios y científicos durante los últimos meses. «Es imposible frenar mediante regulación que la gente siga publicando sus investigaciones en código abierto. Eso sería oscurantismo, sería como en el caso del Imperio Otomano parando la imprenta», zanja LeCun con brusquedad.
El jefe de IA de Meta, desde luego, no niega que pueda haber malos usos de esta tecnología. Como señala, se trata de algo que siempre ha ocurrido con cada avance. Cuando se implantó el correo electrónico, por ejemplo, apareció el ‘spam’, con las redes sociales vino la manipulación y la propaganda; es algo inevitable. Igual que ocurre con el efecto de los sistemas en el mercado laboral, aunque el investigador no espera que sea tan grande como otros apuntan.
Pensar como un humano
Hasta ahora, no hay ninguna revolución tecnológica que en términos absolutos haya eliminado trabajo, obviamente, a medio plazo. Habrá empleos que desaparecerán, pero otros que no conocemos ahora emergerán. Quién iba a suponer hace 20 años que habría desarrolladores de aplicaciones, influencers o youtubers. Los cambios tecnológicos no son drásticos. Tardan 15 o 20 años en producirse, y en ese proceso emergen nuevas profesiones y desaparecen otras.
El futuro de la IA, según Meta y el propio LeCun, es JEPA, o Joint Embedding Predictive Architecture. Un modelo que abandona el modelado probabilístico del resto de sistemas y. de alguna manera, intenta recrear el funcionamiento de la inteligencia humana, con todos los procesos y pasos que damos en la toma de decisiones. Los resultados son prometedores, según el científico, sin las «alucinaciones» que sufren los sistemas de IA actuales. Pero estamos hablando de que este modelo necesita más de una década para ser una realidad. Y, ¿quién sabe?, cambiarlo todo otra vez.
Notiespartano/800Noticias