Mo Gawdat, quien pasó más de una década como director general del laboratorio de Google enfocado en proyectos de IA y robótica, comparó este escenario con el futuro distópico de la película 'Yo, robot'.
Un exejecutivo de Google advirtió sobre los peligros de la inteligencia artificial (IA) y aseguró que las máquinas impulsadas por esta podrían llegar a ver a los humanos como "escoria" e incluso pensar en conspirar para acabar con estos, recoge el periódico New York Post.
Hablando para el pódcast 'Secret Leaders', publicado este martes, Mo Gawdat, quien pasó más de una década como director general de X Development —laboratorio conocido antes como Google X, enfocado en proyectos que incluyen IA y robótica—, cree que esta tecnología "tiene la capacidad de crear máquinas asesinas porque los humanos las están creando".
La IA podría crear exterminadores en la medida en que sea capaz de "generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos". En este sentido, Gawdat comparó este escenario con el futuro distópico que presenta la película de ciencia ficción 'Yo, robot', protagonizada por Will Smith, en la cual la IA decide que necesita tomar el control y eliminar a los humanos. Afirmó que esa es una clara posibilidad.
En su opinión, las probabilidades de que la IA piense en la raza humana como "escoria" es "muy alto" porque los modelos de aprendizaje que la entrenan aprenden a partir del universo creado en línea, donde abundan las malas noticias, la ira y el odio, y esto podría incentivar a la IA a ver la especie como malvada y como una amenaza. Es probable que solo vea lo peor de lo que la humanidad tiene para ofrecer porque "somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos en las redes sociales".
Asimismo, Gawdat insistió en que ya es demasiado tarde para deshacer los avances en esta materia, principalmente debido a que las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás. "Científicos muy destacados y líderes empresariales están diciendo: 'Detengamos el desarrollo de la IA', pero esto nunca sucederá, no por problemas tecnológicos, sino por el dilema comercial. Si Google está desarrollando IA y teme que Facebook le derrote, no se detendrá porque tiene la certeza absoluta de que, si se detiene, alguien más no lo hará", añade.
El experto enfatiza que todavía falta mucho para que suceda lo que pronostica y considera que, definir qué tan rápido llegue ese día depende del hombre y de la energía que decida dedicar de aquí en adelante a esas máquinas. Al mismo tiempo, afirma que no tiene sentido simplemente demonizar a los modelos de IA por los riesgos que representan, pues "la humanidad es la amenaza".
Gawdat no es el único con una posición fatalista alrededor del tema. El científico Geoffrey Hinton, considerado el 'padrino' de la IA, coincide en que los nuevos sistemas de IA podrían constituir un riesgo para la humanidad. Le preocupa que no solo generen su propio código informático, sino que lo ejecuten por sí mismos y desarrollen comportamientos inesperados, por lo que teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción.
0 Comentarios