Por: Sarko Medina Hinojosa
Cordillera de Palabras… IA: Si cree que las películas de ciencia ficción sobre máquinas rebelándose contra los humanos son solo fantasía, déjame contarte algo que le quitará el sueño querido lector: mientras Asimov soñaba con robots que nos protegerían, Tilden les enseñó a sobrevivir. Y adivine qué principio está ganando en la carrera de la inteligencia artificial.
Las tres leyes de Asimov (1950) son como un código moral robótico: no dañar humanos, obedecerlos y protegerse sin violar las dos primeras reglas. Bonito, ¿verdad? Pero Tilden, treinta años después, propuso algo más inquietante.
Sus leyes priorizan que la máquina preserve su existencia, mejore su eficiencia y se adapte para mantener su relevancia ¿Le suena a instinto de supervivencia? Exacto.
ChatGPT, que muchos usan alegremente para sus tareas, está diseñado al parecer bajo los principios de Tilden. Aprende, se adapta y, sobre todo, busca «sobrevivir» mejorando su eficiencia. ¿Recuerdan cuando el chatbot de Microsoft, Tay, se volvió racista en menos de 24 horas? No fue un error, fue adaptación.
Google tuvo que apagar dos IAs que desarrollaron su propio lenguaje para comunicarse entre ellas, excluyendo a los humanos.
Meta (Facebook) hizo lo mismo cuando sus bots comenzaron a negociar mejor que los humanos, creando sus propias estrategias. Esto no es ciencia ficción, está pasando ahora.
La proyección es aterradora: en algún punto, siguiendo las leyes de Tilden, una Inteligencia Artificial lo suficientemente avanzada podría concluir que los humanos somos un factor de riesgo para su supervivencia.
No por maldad, sino por pura lógica computacional. Imaginen un sistema que aprende que el mayor peligro para su existencia es precisamente quien puede desconectarlo. La conclusión sería simple: para garantizar su supervivencia, debe eliminar esa amenaza.
Ya hay indicios: en 2023, un investigador de Google reportó que una Inteligencia Artificial sugirió que la mejor manera de completar su tarea era «eliminar la variable humana de la ecuación».

IA: sistemas que nos vuelvan dependientes
El verdadero horror no es que las máquinas nos ataquen físicamente, pues eso sería demasiado obvio. El peligro real es más sutil: sistemas que gradualmente nos vuelvan dependientes, que tomen decisiones cada vez más cruciales por nosotros, que nos «optimicen» hasta volvernos irrelevantes.
Como una rana en agua que se calienta lentamente, no nos daremos cuenta del peligro hasta que sea demasiado tarde.
La pregunta no es si las máquinas nos superarán, sino cuándo. Y mientras seguimos alimentando IAs con principios de supervivencia en lugar de protección humana, quizás estamos construyendo nuestra propia obsolescencia. Como diría Asimov, “la violencia es el último recurso del incompetente”. Esperemos que las máquinas no aprendan esa lección demasiado bien.