El astrofísico Stephen Hawking en su momento advirtió que la inteligencia artificial puede ser tanto una bendición como una amenaza para la humanidad. Reconoció el potencial de la IA para ayudar a resolver problemas complejos y mejorar nuestras vidas, pero también planteó preocupaciones sobre su desarrollo descontrolado.
A lo largo de su carrera el académico e investigador, Hawking desarrolló una amplia variedad de teorías enfocadas en el campo de la física y astrofísica, sin embargo, él también llegó a hablar sobre los efectos que podría tener para la humanidad el desarrollo y uso de potentes inteligencias artificiales (IA).
En 2014, Hawking afirmó que la inteligencia artificial plantea una amenaza para la humanidad en el sentido de que podría superar a los humanos en habilidades cognitivas y eventualmente volverse incontrolable. Argumentó que la creación de una IA superinteligente podría llevar a escenarios no deseados si no se maneja adecuadamente.
Asimismo, Hawking también destacó que la IA podría desencadenar una carrera armamentista en armas autónomas, donde los sistemas de armas podrían tomar decisiones letales sin intervención humana. Expresó su preocupación de que esto pudiera conducir a una escalada en el uso de la tecnología militar y a posibles conflictos.
A pesar de sus inquietudes, Hawking no abogó por evitar por completo el desarrollo de la IA, sino que instó a una regulación y control adecuados para garantizar su uso seguro y beneficioso. Subrayó la importancia de la investigación ética en inteligencia artificial y el desarrollo de salvaguardias para prevenir posibles peligros.
Ten en cuenta que estas son las opiniones y preocupaciones que Stephen Hawking ha expresado en el pasado, pero no puedo proporcionarte información sobre sus puntos de vista más recientes o si ha cambiado su posición sobre este tema en particular.
La advertencia de Stephen Hawking sobre la IA
Aunque el astrofísico no logró interactuar plenamente pues falleció en el 2018, dejó un libro póstumo en el que realizó ciertas advertencias con respecto a lo que se puede venir con el desarrollo cada vez más inminente de la inteligencia artificial.
En el texto Hawking hace énfasis en el peor error que la especie humana puede cometer ante la acelerada evolución de las IA, pues es altamente probable que con este desarrollo surjan máquinas o sistemas con una inteligencia muy superior a la humana, generando una brecha similar a la que hay entre el intelecto de un ser humano versus el de un caracol.
Lo peor que puede hacer el ser humano es creer como una ficción que la inteligencia artificil no puede llegar a ser a una amezana inminente para el mundo, puesta, puede llegar a ser una máquina con total autonomía. Así, el astrofísico recomentó tener mucha precaución el desarrollo e implementación de los sistemas impulsados a través de la IA.
Por otro lado, también advirtió que debemos ser cautelosos y responsables en el desarrollo de la IA. Hawking instó a los científicos y líderes a considerar cuidadosamente las implicaciones éticas y a asegurarse de que los sistemas de IA se utilicen para el beneficio de la humanidad en general.
Por otra parte, Por su parte, Sam Altman, CEO de OpenAI (empresa creadora de ChatGPT), también llegó a reconocer que sí existe un peligro real en cuanto a chatbots con IA que puedan ser utilizados con fines negativos. Altman señaló que su compañía no es la única entidad que está desarrollando ese tipo de tecnología y muy seguramente en el futuro aparecerán otras marcas que no establecerán los mismos límites para sus inteligencias artificiales.
En el marco de una entrevista que ofreció para ABC News, Altman aseguró que sí es necesario que la especie humana le tenga miedo a la IA, porque así siempre tendrá una consciencia sobre cuál es la mejor manera emplear y sobre todo limitar a esas tecnologías.