Uno de los mayores expertos en inteligencia artificial (IA), Gary Marcus, profesor emérito de psicología y ciencia neuronal de la Universidad de Nueva York, cree que va a ser necesario aplicar marcas de agua en las imágenes generadas por robots, y algo parecido también en los textos, para diferenciarlos así de los generados por humanos y evitar que se propague la desinformación.
En un artículo reproducido en el New York Times, Marcus, autor de dos libros dedicados a la IA, trata de evitar el tono alarmista: ”No soy de los que piensa que el planeta entero va a ser dominado por los robots”, pero admite que le preocupa “lo que los actores negativos pueden hacer con estas cosas, porque nadie los controla”.
“¿Los beneficios superan a los costos? -se pregunta- La respuesta más honesta es que no lo sabemos. Algunos quisiéramos que esto se ralentice porque vemos sus costos a diario, pero eso no significa que no haya beneficios”, matiza, especialmente en los ámbitos técnicos, y advierte, de paso, contra quienes abogan por el ChatGPT como medio de ganar una especie de carrera con China.
Como remedio inmediato, Marcus sugiere alguna especie de gobernanza internacional sobre el mundo de la IA: “Lo que necesitamos es algo global, neutral, sin ánimo de lucro, con gobiernos y empresas participando en ello. Tenemos que coordinar esfuerzos sobre cómo crear reglas. Necesitamos crear un código sobre lo que es aceptable y quién es el responsable”.
Este organismo supranacional respondería a dudas razonables que ya se plantean, y pone los siguientes ejemplos: ¿Qué pasa si los chatbots mienten mucho?, ¿se puede permitir?, ¿quién será el responsable?; si la desinformación se expande ampliamente, ¿qué hacer?, ¿quién asume los costos?, ¿queremos que las empresas pongan dinero para crear herramientas que detecten la desinformación que ellas mismas crean?”. Actualmente, advierte, “el costo de la desinformación es igual a cero”.
El experto alarma contra el criterio absoluto de la eficacia a la hora de aceptar el uso masivo de la IA como un elemento para abaratar costos: “Estas herramientas nos pueden dar tremendos beneficios en lo referente a la productividad, pero también pueden destruir el tejido social (en referencia a los eventuales puestos de trabajo amortizados). Si ese es el caso, ya no merecen la pena”, insiste.
Si no se avanza en una regulación rápida de la IA y los chatbots, Marcus pone un ejemplo de lo que eso puede significar en las próximas elecciones presidenciales en EEUU: “Si no hacemos nada, nadie va a creerse nada, y todas aquellas cosas que no quieran creer, lo van a rechazar atribuyéndolas a la IA. Con lo que los problemas sobre polarización y el discurso público no harán sino empeorar”.
Las advertencias de Marcus se suman a las de otros expertos que en los últimos días están alertando sobre el avance espectacular de la IA, hasta ahora prácticamente sin control.
El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, explicó que ha dejado su trabajo en Google para poder advertir con mayor libertad de los peligros que plantean estas nuevas tecnologías.
Cómo detectar una fake news
- Percatarse del medio de difusión: si este es replicado por mensajería instantánea, por las bases de datos de alguna institución o por una fuente global.
- Leer la información completa y no solo el titular.
- Basar la búsqueda de información en cuentas y medios verificados.
- Cuestionar la veracidad de las fotografías y logos.
- Indagar por las cifras que se entregan en lo que leemos.
- Dudar de calificativos exagerados en los titulares.
- Adoptar una actitud reflexiva al momento de leer y compartir una noticia.
- Dudar de la información en redes sociales que sea publicada a través de pauta digital pagada. Si tiene la etiqueta contenido promocionado o anuncio, probablemente hay un interés detrás que debería hacernos dudar de su veracidad.