Geoffrey Hinton, padre de la IA, lanza una advertencia: “La gente no sabe lo que se viene"
| Geoffrey Hinton, padre de la IA, lanza una advertencia: “La gente no sabe lo que se viene" |
Geoffrey Hinton, uno de los científicos más importantes en el desarrollo de la inteligencia artificial moderna, ha hecho una declaración que debería llamar la atención de todos.
![]() |
| Mientras la IA está al servicio de todos, lo que ocurre debajo es que su entrenamiento la alimenta con millones de datos por segundo |
En una entrevista reciente, comparó el crecimiento de la IA con criar un cachorro de tigre: puede parecer inofensivo al principio, pero si no se entiende bien ni se controla, puede volverse peligroso y fuera de control. Este aviso no es fruto de una exageración o de miedo infundado, sino la voz de alguien que ha visto de primera mano cómo esta tecnología puede crecer y cambiar nuestra realidad de formas que todavía no comprendemos del todo. La advertencia de Hinton es clara: la humanidad está jugando con fuego y no está prestando la atención suficiente a los posibles riesgos que esto implica.
El problema real no es que la inteligencia artificial se vuelva consciente o intencional, como suelen mostrar las películas de ciencia ficción, sino que los sistemas autónomos puedan tomar decisiones sin supervisión humana en áreas críticas, desde la economía hasta la seguridad o la defensa. Hinton calcula que hay entre un 10% y un 20% de probabilidades de que la IA evolucione hasta un punto en el que se escape al control humano. Para ponerlo en perspectiva, es una posibilidad que no puede ser ignorada ni minimizada, sobre todo si consideramos la velocidad con la que se está desarrollando esta tecnología y la poca regulación que existe hasta ahora. La realidad es que hoy ya tenemos sistemas capaces de tomar decisiones complejas y de actuar a una velocidad imposible de supervisar en tiempo real, y si esos sistemas operan con objetivos mal definidos o sin control estricto, el desastre puede estar a la vuelta de la esquina.
Mientras la IA está al servicio de todos, lo que ocurre debajo es que su entrenamiento la alimenta con millones de datos por segundo, convirtiéndola en una máquina cada vez más potente capaz de entender patrones de comportamiento de toda la humanidad. Esto no es un juego ni una simple curiosidad tecnológica; es un peligro latente porque, si no se la supervisa con rigor o se la considera simplemente “inteligente”, puede empezar a tomar decisiones brutales donde sólo el humano puede mediar con empatía y humanidad, marcando la diferencia entre un juicio justo y una acción implacable. La IA, en cambio, podría volverse implacable y devastadora, carente de los valores y emociones que hacen humana a la toma de decisiones, y ahí es donde reside el mayor riesgo.
Por eso, Hinton propone que los gobiernos y las empresas tecnológicas se tomen mucho más en serio la seguridad y la regulación de la inteligencia artificial. No alcanza con hacer la IA más potente o rápida; es necesario dedicar grandes recursos a investigar cómo hacer que estos sistemas sean seguros y controlables. En particular, sugiere que al menos un tercio de la capacidad de cómputo de las grandes compañías debería destinarse exclusivamente a la investigación en seguridad de IA.
Aunque Hinton no es un pesimista absoluto y reconoce que la inteligencia artificial tiene un enorme potencial para el bien —desde mejorar la educación hasta ayudar en la lucha contra el cambio climático— insiste en que ese potencial no debe cegarnos ante los riesgos reales y actuales. La IA ya puede generar desde imágenes y textos hasta manipular opiniones políticas, crear noticias falsas con voces humanas, automatizar decisiones médicas y financieras, o controlar sistemas de vigilancia y drones armados. Estas tecnologías no son parte de un futuro lejano, sino que están presentes hoy y su alcance y poder crecen día a día. Por eso, la frase que repite es contundente: “la gente no sabe lo que se viene”. Aún hay un gran desconocimiento social sobre el verdadero impacto y alcance de la inteligencia artificial.
Finalmente, lo que podemos hacer como usuarios y ciudadanos es informarnos, cuestionar y exigir transparencia y responsabilidad a quienes desarrollan y controlan estas tecnologías. No se trata de temer a la IA, sino de entender qué es, cómo funciona y qué consecuencias puede traer si se usa sin límites o sin ética. La historia nos ha enseñado que cualquier herramienta poderosa puede usarse para bien o para mal, y la inteligencia artificial no es la excepción. Si no empezamos a tomar conciencia y a actuar con responsabilidad, el “cachorro de tigre” que hoy nos parece simpático podría terminar siendo un problema mucho más grande y peligroso de lo que imaginamos. La voz de Geoffrey Hinton es un llamado urgente para que todos, desde los desarrolladores hasta los usuarios, entendamos la dimensión de lo que se viene y actuemos en consecuencia.
