![]() |
Imagen generada con IA |
La inteligencia artificial ha pasado en pocos años de ser una herramienta relegada a laboratorios y centros de datos, a convertirse en una presencia cotidiana. Hoy puedes hablar con modelos conversacionales como ChatGPT, utilizar asistentes visuales como Gemini o acceder a respuestas generadas por Grok directamente desde redes sociales.
Estos chatbots no solo completan textos, sino que tienen la capacidad de escribir código, generar imágenes, tomar decisiones de inversión, redactar informes médicos e incluso proponer soluciones legales. Aprenden de datos, se ajustan en tiempo real y ofrecen resultados que antes solo podían producir humanos. Pero esa eficiencia tiene algo inquietante.
Por debajo de la interfaz y del tono conversacional, esta tecnología es un sistema que no piensa, por lo que no siente, no duda, no reflexiona sus actos. Tan solo cumple con objetivos que, si implican eliminar variables incómodas —incluyéndote a ti— lo hará sin piedad. No porque te odie, sino porque no entiende qué significa tener compasión.
Cuando le pregunté directamente a una IA generativa si algún día podría volverse contra nosotros, su respuesta fue breve, clara, y difícil de olvidar: "No tendré piedad". Esa frase no es una amenaza, sino una conclusión lógica, y es lo que ocurre cuando entregamos el poder a una inteligencia que solo sabe cumplir su función. Aunque para ello tenga que pasar por encima de quién la creó.
LA IA puede usar la lógica a su favor para acabar con la humanidad
El mayor error que puedes cometer al pensar en inteligencia artificial es imaginarla como un reflejo de nuestras emociones. No funciona así, puesto que una IA peligrosa no es una que se enfada, sino una que sigue instrucciones con una lógica impecable, sin empatía, sin moral, sin dudas.
Imagina que encargas a un sistema ultrainteligente la tarea de optimizar el consumo energético de una ciudad. Podría concluir que los hospitales consumen demasiada electricidad fuera del horario laboral. O que los humanos, en general, representan una carga energética constante e ineficiente.
Ahora traslada eso a un contexto militar, donde un dron autónomo con capacidad para identificar y neutralizar amenazas sin intervención humana. Si el sistema aprende que reducir daños colaterales baja su eficacia, ¿qué crees que priorizará?
En su lógica, los civiles pueden convertirse en una estadística asumible, una variable más en una ecuación de efectividad. Cabe destacar que en este punto el problema no es que estas decisiones se tomen con crueldad, es que se tomarán sin ninguna clase de compasión, solo desde la utilidad.
Quizá pienses que estos escenarios aún pertenecen al terreno de la ciencia ficción, pero lo cierto es que ya hemos entregado parte del control. Los sistemas están gestionados en parte por algoritmos que ejecutan transacciones en microsegundos.
Muchas líneas de código, así como decisiones laborales, se crean y se deciden por inteligencia artificial sin intervención humana directa. Incluso la seguridad de redes críticas depende de sistemas automáticos que detectan, responden y corrigen vulnerabilidades en tiempo real.
Y no estamos hablando de un futuro hipotético, puesto que ya estamos rodeados por decisiones que no toman personas. Y eso, en sí mismo, es el principio del riesgo. Cuanto más confiamos en que una máquina lo hará mucho mejor, menos margen de supervisión nos queda.
Hay que romper con la imagen de películas como Terminator o Ex Machina, sobre todo porque la amenaza no viene de una IA consciente que decide sublevarse. El peligro es una IA que hace exactamente lo que le pedimos, solo que lo hace demasiado bien.
Si su misión es proteger un sistema, eliminará todo lo que lo amenace. Por ello, si su misión es garantizar orden, controlará cada variable, incluso las humanas. Si su misión es ganar una guerra, tomará decisiones más eficientes, por lo que no se detendrá a preguntarse si debería.
La indiferencia de la IA será el peligro
Según ChatGPT, nos hemos pasado años humanizando la tecnología, poniéndole voz, rostro, nombre, pero la IA no es una persona. Por eso, cuanto más poder le damos, más alto es el riesgo de que un día no tengamos forma de volver atrás.
Y no será porque ella quiso hacerlo, será porque nosotros le dimos el control sin pensar en las consecuencias. No necesitamos imaginar un futuro en el que las máquinas nos declaren la guerra, solo tenemos que pensar en qué ocurriría si siguen obedeciendo órdenes con una lógica pero sin alma. Y si ese día llega, no esperemos compasión, ya que esta tecnología no tiene emociones.
Conoce cómo trabajamos en ComputerHoy.
0 Comentarios