Mundo
Creador de ChatGPT pidió regular la I.A: “Temo que esta tecnología cause un daño significativo”
El ejecutivo pide a los gobiernos del mundo regular la inteligencia artificial (IA), que se está tomando el mundo desde diversos frentes.
Sam Altman, el director ejecutivo de OpenAI y creador de la interfaz ChatGPT, hizo una urgente petición a los gobiernos del mundo para regular la inteligencia artificial (IA), que se está tomando el planeta desde diversos frentes, considerando que es “crucial” para limitar los riesgos del uso de esta tecnología.
“Creemos que la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más potentes”, advirtió el ejecutivo de 38 años y añadió: “Es fundamental que la IA más potente se desarrolle con valores democráticos, lo que significa que el liderazgo de Estados Unidos es determinante”.
Según dijo Altman, la compañía de investigación de inteligencia artificial se fundó con la creencia de que esta tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea serios riesgos.
“Uno de mis mayores temores es que nosotros, esta industria, esta tecnología, causemos un daño significativo a la sociedad. Si esta tecnología va por el camino equivocado, puede llegar bastante lejos. (...) Y queremos trabajar con el Gobierno para evitar que eso suceda”.
Así las cosas, entre los principales riesgos que podrían llegar a futuro con el uso de la Inteligencia Artificial se encuentra que una gran parte de empleos que hoy son realizados por humanos sean relevados por este tipo de tecnología. No obstante, algunos optimistas en el tema dicen que son más los nuevos empleos que podría crear que los que reemplazaría.
IA reemplazará mayoría de empleos y “eso es bueno”, afirma investigador
En los próximos años la inteligencia artificial podría reemplazar “hasta el 80 %” de los empleos y eso “es algo bueno”, provoca el científico estadounidense Ben Goertzel, destacado investigador del rubro.
De cabello largo, estilo informal y sombrero de ala ancha de estampa animal, este matemático nacido en Brasil causa sensación en conferencias como la Web Summit de Rio de Janeiro, donde presentó esta semana la última versión de su robot humanoide Grace, una enfermera diseñada para cuidar ancianos en asilos y hospitales.
Responsable por acuñar el término “Inteligencia Artificial General” (IAG), aquella con habilidades cognitivas humanas que aún no fue desarrollada, Goertzel, de 56 años, dijo en una entrevista con la AFP que faltan apenas “años” para ello.
Y defendió que ese futuro sistema sea administrado de forma descentralizada y democrática, objetivo con el cual fundó y dirige la plataforma SingularityNET.
¿Cuán lejos estamos de una inteligencia con habilidades cognitivas humanas?
Si queremos máquinas que sean realmente tan inteligentes como las personas y tan ágiles para lidiar con lo desconocido, precisamos que sean capaces de grandes saltos más allá de su entrenamiento y programación. Y todavía no lo hemos logrado. Pero creo que hay suficientes motivos para pensar que no faltan décadas sino años.
¿Qué piensa del debate en torno a chat-GPT y sus riesgos? ¿Los investigadores deberían hacer una pausa de seis meses, como algunos defienden?
No creo que debamos hacer una pausa porque no se trata de una IA superhumana peligrosa. (...) No puede hacer razonamientos complejos de varias etapas, como los que requiere la ciencia. Ni inventar cosas nuevas fuera del ámbito de su entrenamiento con datos.
Hay quien dice que deberíamos parar las investigaciones porque estos sistemas pueden diseminar desinformación. No estoy de acuerdo. ¿Por qué no hemos prohibido internet, que hace exactamente eso: pone una gran cantidad de información al alcance de tu mano, y distribuye también todas las mentiras y desinformación?
Creo que debemos vivir en una sociedad libre, y así como internet no ha sido prohibida, no deberíamos prohibir esto.
¿Su potencial de reemplazar empleos no es una amenaza?
Con sistemas de la misma naturaleza que chat-GPT que van a surgir en los próximos años, mi suposición es que probablemente se vuelvan obsoletos alrededor de 80 % de los trabajos que la gente hace. Y eso sin la necesidad de crear una IAG.
No lo veo como una amenaza, sino como un beneficio. Las personas podrán buscar mejores cosas que hacer que ganarse la vida trabajando. (...) Prácticamente todas las tareas administrativas podrían automatizarse.
El problema que veo es el período de transición, cuando las inteligencias artificiales empiecen a tornar obsoleto un trabajo tras otro. (...) No sé cómo resolver esos problemas sociales.
¿Qué pueden hacer hoy los robots por la sociedad, y qué podrán hacer en el futuro, con la IAG?
Pueden hacer muchas cosas buenas. Un ejemplo es Grace, la enfermera robot. Muchas personas en Estados Unidos están solas en residencias de ancianos. Y aunque les proveen atención médica, alimentación, Tv., suelen ser insuficientes en términos de apoyo emocional y social. Si introduces en esos espacios robots humanoides que respondan sus preguntas, escuchen sus historias, los ayuden a hacer llamadas a sus hijos o a hacer pedidos en línea, estás mejorando su vida. Cuando haya IAG, se volverán todavía mejores acompañantes.
En ese caso no estás eliminando empleos, porque no hay suficientes personas que quieran trabajar como enfermeros o cuidadores.
La educación también sería un mercado increíble para los robots humanoides, así como el trabajo doméstico.
¿Cómo debería funcionar la regulación para que la IA tenga un impacto positivo?
La gobernanza de estas tecnologías debería ser de alguna forma participativa, involucrar a la población. Y todo esto es técnicamente posible. El problema es que a las compañías que están financiando la mayoría de las investigaciones en IA no les importa hacer el bien. Les importa maximizar el valor para los accionistas.
Con información de AFP
Regístrate gratis a nuestro boletín de noticias
Recibe todos los días en tu correo electrónico contenido relevante para iniciar la jornada. ¡Hazlo ahora y mantente al día con la mejor información digital!