inteligencia artificial
Geoffrey Hinton, padrino de la IA, deja Google para alertar sobre los riesgos de esta tecnología
Los desarrollos más recientes de inteligencia artificial generativa han puesto sobre la mesa los riesgos que esta herramienta plantea para la sociedad y la humanidad
Geoffrey Hinton, conocido como 'el padrino de la inteligencia artificial', veterano en el desarrollo de esta tecnología, acaba de dejar su puesto en Google para alertar sobre los desarrollos que actualmente se están haciendo con la IA y los riesgos que plantean para la sociedad.
Los desarrollos más recientes de inteligencia artificial generativa han puesto sobre la mesa los riesgos que esta herramienta plantea para la sociedad y la humanidad, como recogen algunos de los líderes del sector en una carta abierta compartida a finales de marzo, entre los que figuran Steve Wozniak, Jaan Tallinn o Elon Musk.
Días después apareció una segunda carta abierta, en esta ocasión firmada por miembros de la Asociación por el Avance de la Inteligencia Artificial, como Francesca Rossi de IBM o Eric Horvitz de Microsoft.
Ninguna de ellas contó con la firma de Hinton, quien llevaba diez años trabajando para Google precisamente en el área de IA, y no quería criticar abiertamente a esa y otras empresas sumidas en el desarrollo de esta tecnología antes de dejar su puesto de vicepresidente de Google y miembro del equipo de Ingeniería. Algo que hizo la semana pasada.
El sobrenombre del 'padrino de la inteligencia artificial' nace de su larga carrera dedicada por convicción al desarrollo y uso de la IA, de la que en cierta forma se arrepiente. "Me consuelo con la excusa normal: si yo no lo hubiera hecho, alguien más lo habría hecho", explica en una entrevista a The New York Times.
Le preocupa que los contenidos generados por herramientas de IA como ChatGPT o Dall-E llenen Internet de textos, fotografías y vídeos que no permitan a una persona media distinguir lo que es real. También el impacto que tendrá en el mercado laboral donde cree que podría quitar más que el trabajo pesado.
También advierte sobre las empresas que permiten que las herramientas de IA no solo generen su propio código sino también ejecuten dicho código por sí solas, y sobre el desarrollo de armas autónomas.
"La idea de que estas cosas podrían ser más inteligentes que las personas, algunas personas lo creyeron. Pero la mayoría de la gente pensó que estaba muy lejos", apunta, reconociendo que él también veía este desarrollo a más distancia, a 30 o 50 años.
Hinton no cree que Google y Microsoft "deban escalar esto más hasta que hayan entendido si pueden controlarlo". Entiende que es necesaria una regulación que ponga freno a la escalada, pero no cree que sea suficiente y por ello apunta a la necesidad de que los principales científicos colaboren para controlar la tecnología.