En una entrevista reciente, Sam Altman, CEO de OpenAI y uno de los creadores de la popular plataforma ChatGPT, compartió sus preocupaciones sobre el impacto negativo que la inteligencia artificial puede tener en la sociedad. Aunque no considera que el lanzamiento de ChatGPT haya sido un error, Altman reflexiona sobre las implicaciones de esta plataforma y aboga por una regulación responsable de la inteligencia artificial.
Altman expresa inquietud por el crecimiento exponencial de la inteligencia artificial y su inspiración en el desarrollo de otros sistemas similares. “Lo que más me preocupa es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”, afirmó el directivo. Reconoce el potencial impacto de la plataforma en la industria y en cómo se utilizará en el futuro.
La necesidad de regular la inteligencia artificial ha sido un tema recurrente en medio de su crecimiento. Por ejemplo, reconoce que con los avances en esta tecnología han brindado a los ciberdelincuentes mejores herramientas para cometer estafas, lo que ha generado llamados a la responsabilidad y a establecer límites en su desarrollo.
Altman sugiere la implementación de un sistema de auditoría para supervisar a quienes desarrollan inteligencia artificial y la importancia de contar con pruebas de seguridad antes de lanzar nuevas plataformas y proporcionar acceso público. Destaca la necesidad de mitigar los posibles riesgos asociados a versiones más avanzadas de la inteligencia artificial.
Estas preocupaciones sobre los peligros potenciales de la inteligencia artificial no son nuevas para OpenAI. Recientemente, Altman se unió a otros líderes de la industria para firmar un comunicado del Centro para la Seguridad de Inteligencia Artificial, que advierte sobre la posibilidad de eventos de “extinción” provocados por la IA. En dicho comunicado se destaca la necesidad de abordar los riesgos de la inteligencia artificial de manera global.
Altman ha reiterado su llamado a la regulación de la inteligencia artificial para proteger a los usuarios y evitar posibles abusos. Si bien reconoce que la IA con capacidad para dominar al mundo solo existe en las películas, teme que pueda ser utilizada para generar contenido desinformativo dirigido a las personas. Algo sobre lo que se han conocido denuncias de internautas. El CEO de OpenAI ha expresado su disposición a colaborar con el gobierno y otros actores para garantizar un desarrollo responsable de la inteligencia artificial.
Además enfatiza que OpenAI, como empresa controlada por una organización sin fines de lucro, se compromete a trabajar para una distribución amplia de los beneficios de la IA y a maximizar la seguridad de los sistemas basados en esta tecnología. Sin embargo, también reconoce que la inteligencia artificial tiene el potencial de mejorar diversos aspectos de nuestras vidas y espera que el desarrollo de OpenAI no haya tenido un impacto negativo en la industria.
Las preocupaciones de Sam Altman reflejan la necesidad de regular la inteligencia artificial y garantizar su uso responsable. A medida que la tecnología continúa evolucionando, para el empresario es fundamental abordar los posibles riesgos y establecer medidas que protejan a los usuarios y a la sociedad en general. La colaboración entre empresas, gobiernos y organizaciones será clave para asegurar un desarrollo ético y seguro de la inteligencia artificial, señaló.
Otras opiniones sobre los riesgos de la IA
Expertos en inteligencia artificial de renombre también han manifestado inquietudes similares sobre los riesgos potenciales de esta tecnología emergente. Elon Musk, CEO de SpaceX y Tesla, ha sido uno de los voceros más prominentes en esta materia. Musk ha advertido repetidamente sobre el peligro de una “inteligencia artificial malévola”, que pueda superar la capacidad humana de control. Ha hecho un llamado a la necesidad de establecer una regulación sólida para supervisar el desarrollo de la inteligencia artificial y garantizar su seguridad.
Otro destacado experto en IA, Stuart Russell, ha abogado por un enfoque centrado en la seguridad desde la concepción misma de los sistemas de inteligencia artificial. Russell ha argumentado que se debe prestar especial atención al diseño de los objetivos y las restricciones de los sistemas de IA, para evitar cualquier comportamiento indeseable o dañino. Además, ha propuesto la inclusión de mecanismos de “interrupción” en los sistemas de inteligencia artificial, permitiendo que los humanos tomen el control cuando sea necesario.
Estas voces influyentes en el campo de la inteligencia artificial destacan la importancia de abordar los riesgos y preocupaciones éticas desde las etapas iniciales de desarrollo de esta tecnología. La regulación y el diseño responsable se presentan como elementos clave para mitigar los posibles peligros implícitos en las tecnologías de gran alcance.