De acuerdo con una declaración publicada por el Centro para la Seguridad de la IA, debe ser una prioridad mundial mitigar el riesgo de extinción generado por esta industria, al igual que las pandemias y la guerra nuclear, que ponen en peligro a la sociedad.
Por su parte, decenas de líderes de la industria de la IA, entre académicos e incluso algunas celebridades, pidieron este martes reducir el riesgo de aniquilación global debido a la inteligencia artificial, argumentando que la amenaza de un evento de extinción de la IA debería ser una prioridad global de primer orden.
La declaración está firmada, entre otros, por Sam Altman, consejero delegado de OpenAI; Geoffrey Hinton, el llamado “padrino” de la IA; altos ejecutivos e investigadores de Google DeepMind y Anthropic; Kevin Scott, director de tecnología de Microsoft; Bruce Schneier, pionero de la seguridad en Internet y la criptografía; Bill McKibben, defensor del clima, y la artista Grimes.
Esta sería una respuesta a la preocupación de varios actores sociales respecto al peligro que supondría una inteligencia artificial descontrolada en el mundo. Pese a que los expertos en IA han afirmado que la sociedad está aún muy lejos de desarrollar el tipo de inteligencia artificial general propia de la ciencia ficción, esto debido a que los actuales chatbots de vanguardia reproducen en gran medida patrones basados en datos de entrenamiento que se les han proporcionado y no piensan por sí mismos.
Un peligro latente
La preocupación a nivel mundial no se ha hecho esperar, y con ella existe una avalancha de exageraciones e inversiones en el sector que ha llevado a reclamar una regulación al principio de la era de la inteligencia artificial, antes de que se produzcan desgracias graves.
Cabe recordar que la pertinencia de esta declaración se debe al éxito viral de ChatGPT de OpenAI, que contribuyó a intensificar la carrera armamentística en la industria tecnológica en torno a la inteligencia artificial.
De esta manera, un número cada vez mayor de legisladores, grupos de defensa y expertos en tecnología han hecho saltar las alarmas sobre la posibilidad de que una nueva generación de chatbots potenciados por IA difunda información errónea y desplace puestos de trabajo.
Por su parte, Geoffrey Hinton, el ‘padrino’ de la IA, cuyo trabajo ayudó a dar forma a los actuales sistemas de inteligencia artificial, declaró al medio internacional CNN que decidió dejar su puesto en Google y “denunciar” la tecnología tras darse cuenta “de que estas cosas se están volviendo más inteligentes que nosotros”, explicó el experto.
“Alertas sobre la tecnología que ellos mismos crearon”
Al respecto, Dan Hendrycks, director del Centro para la Seguridad de la inteligencia artificial, dijo a través de un tuit que la declaración propuesta por primera vez por David Kreuger, profesor de IA en la Universidad de Cambridge, no impide que la sociedad aborde otros tipos de riesgo de IA, como el sesgo algorítmico o la desinformación, por ejemplo.
De igual forma, Hendrycks realizó una comparación de la declaración en mención con las advertencias de los científicos atómicos que en su momento lanzaron “alertas sobre las propias tecnologías que ellos mismos habían creado”, precisó.
Finalmente, a través de su Twitter Hendrycks dijo que: “Las sociedades pueden gestionar múltiples riesgos a la vez; no es ‘o lo uno o lo otro’, sino ‘sí/y’”. Y, agregó que: “Desde una perspectiva de gestión de riesgos, igual que sería imprudente priorizar exclusivamente los daños presentes, también lo sería ignorarlos”.