La palabra a James Cameron££££
"Creo que siempre existe el peligro de un apocalipsis al estilo Terminator, donde se combina la inteligencia artificial con sistemas de armas, incluso a nivel de armas nucleares, sistemas de defensa nuclear, respuesta, todo eso", explicó el director. Debido a que el teatro de operaciones es tan rápido y las ventanas de decisión tan cortas, se necesitaría una superinteligencia para procesarlo todo, y quizá seamos lo suficientemente inteligentes como para mantener a un humano al tanto. Pero los humanos somos falibles, y hemos cometido muchos errores que nos han puesto al borde de incidentes internacionales que podrían llevar a una guerra nuclear. En resumen, si quieres tener un buen día lleno de positividad, mejor no hablar de Cameron con este tema...