El pais
SUSCRÍBETE

Tecnología

El jefe de la ONU advierte de los riesgos de la Inteligencia Artificial para la paz en el mundo

La IA podría ser una tecnología de doble filo, porque pueden ser utilizadas también por personas malintencionadas.

18 de julio de 2023 Por: Redacción El País
Mediante sofisticadas evaluaciones, ChatGPT arroja luz sobre el país más inteligente del mundo.
El jefe de la ONU advierte de los riesgos de la IA para la paz en el mundo. | Foto: Getty Images

El secretario general de la ONU, Antonio Guterres, advirtió el martes de los riesgos que genera la inteligencia artificial para la paz y la seguridad en el mundo e instó a tomar medidas urgentemente contra una tecnología “sin precedentes”.

“Está claro que la IA va a tener un impacto en todos los aspectos de nuestra vida, en particular la inteligencia artificial generativa, la creadora de imágenes y textos”, declaró Guterres en la primera reunión que el Consejo de Seguridad consagra a este asunto.

Asimismo advirtió que: “La IA generativa tiene un enorme potencial para el bien y para el mal a gran escala”. Al mismo tiempo que estas tecnologías pueden erradicar la pobreza, luchar contra el hambre, curar el cáncer y potenciar la acción climática, las aplicaciones militares y no militares de la IA pueden tener consecuencias graves para la paz y la seguridad mundial.

"No roben nuestras voces", la lucha de los artistas de la voz frente a la IA
El jefe de la ONU anotó que la IA generativa tiene un enorme potencial para el bien y para el mal a gran escala. | Foto: Ilustración creada con la IA de Bing Image Creator

Por eso, Guterres pidió que para fines de 2026 se establezca un instrumento vinculante para prohibir los “sistemas de armas letales autónomos” que funcionan sin supervisión humana y que “nunca se retire” a las personas del control de las armas nucleares.

Cada vez se utiliza más la inteligencia artificial en materia de seguridad, incluso por la ONU, para identificar esquemas de violencia, vigilancia de los altos el fuego o reforzar el mantenimiento de la paz, la mediación y los esfuerzos humanitarios, según lo confirmó Guterres.

“El uso malintencionado de sistemas de inteligencia artificial con fines terroristas, delictivos o estatales podría causar niveles terribles de muerte y destrucción, traumas generalizados y profundos daños psicológicos a una escala inimaginable”, recalcó.

En este contexto, “se necesitan urgentemente mecanismos para la gobernanza de la inteligencia artificial”, dijo el jefe de la ONU, que va a pedir a un grupo de expertos que proponga opciones en este campo para fin de año.

Mientras tanto, reiteró su apoyo a la creación de una entidad de Naciones Unidas para ayudar a optimizar los beneficios de la inteligencia artificial y reducir los riesgos, como ya hacen el Organismo Internacional de Energía Atómica (Oiea) o el grupo de expertos de la ONU sobre el clima (Giec).

La decisión ha generado fuertes críticas en contra de la empresa y su director.
La ONU afirma que se necesitan urgentemente mecanismos para la gobernanza de la inteligencia artificial. | Foto: Getty Images

La Inteligencia Artificial predice resultados médicos mejor que mayoría de doctores

Por otro lado, la inteligencia artificial (IA) ha probado ser útil en lectura de imágenes médicas e incluso ha mostrado que pueden aprobar el examen de licencia para doctores.

Ahora, una nueva herramienta de IA ha demostrado la capacidad de leer notas médicas y anticipar con precisión el riesgo de muerte de los pacientes, su readmisión al hospital y otros resultados importantes para su cuidado.

Diseñado por un equipo de la Escuela Grossman de Medicina de la NYU, el programa actualmente se usa en todos los hospitales afiliados a esta universidad en Nueva York, con la esperanza de que se vuelva estándar en la salud.

El estudio sobre su valor predictivo fue publicado este miércoles en la revista Nature.

IA en hospitales el país
La Inteligencia Artificial predice resultados médicos mejor que mayoría de doctores. | Foto: Tomado de: computerhoy.com

El autor principal, Eric Oermann, neurocirujano de la NYU y científico computacional, dijo que mientras los modelos predictivos sin IA han estado alrededor de la medicina por varios años, se han usado muy poco en la práctica porque los datos que necesita requieren una incómoda reorganización y adaptación de formato.

Sin embargo, “una cosa que es común en la medicina en todas partes es que los médicos escriben notas sobre lo que ven en clínica, lo que han hablado con pacientes”, dijo.

“Entonces, nuestra revelación básica fue: ¿podemos comenzar con las notas médicas como fuente de datos y después construir modelos predictivos sobre ellas?”.

El enorme modelo de lenguaje llamado NYUTron fue entrenado con millones de notas médicas extraídas de historias clínicas de 387.000 personas que recibieron atención médica en los hospitales NYU Langone entre enero de 2011 y mayo de 2020.

Estos registros incluían los escritos por doctores, notas de evolución de pacientes, informes de radiología e instrucciones para dar de alta cuyo total acumula 4.100 millones de palabras.

Uno de los retos clave para el programa fue interpretar el lenguaje natural con el que los médicos escriben, que varía ampliamente entre individuos, incluso por las abreviaciones que cada uno usa.

Al mirar los registros de lo que obtuvieron, los investigadores fueron capaces de calcular cada cuánto las predicciones del programa fueron acertadas.

Además, probaron la herramienta en ambientes vivos y la entrenaron a partir de registros de un hospital en Manhattan para luego ver cómo se comportaba en uno de Brooklyn, con distintos datos demográficos de pacientes.

*Con información de AFP.

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

Regístrate gratis al boletín diario de noticias

AHORA EN Tecnología