Aparece un mensaje en línea durante las fuertes inundaciones: “Esta lluvia no será pequeña, en todas partes póngase rojo”. Alguien que no esté familiarizado con la redacción podría dudar. Pero para la gente de Nigeria, este mensaje es inmediato y claro: las inundaciones son graves y están empeorando.
Momentos como este suceden todo el tiempo en las plataformas digitales. La gente no escribe oraciones perfectas y estándar en inglés. Comparten advertencias y reacciones en plataformas como X, WhatsApp y Facebook utilizando el lenguaje de la vida cotidiana. Esto significa a veces mezclar el inglés con expresiones locales, jerga y lenguaje expresivo moldeado por sus comunidades.
Los sistemas de inteligencia artificial pueden comprender el lenguaje y abordar una amplia gama de problemas. Los gobiernos y las organizaciones utilizan cada vez más la IA para escanear las redes sociales, resumir conversaciones públicas e incluso responder a cuestiones ambientales y climáticas.
Pero muchas de estas herramientas tienen dificultades para entender la forma en que las personas realmente se comunican. Las expresiones locales y la jerga pueden confundir a la IA, por lo que a veces los mensajes importantes se malinterpretan o se pasan por alto por completo.
Cuando la gente habla de barreras lingüísticas, a menudo se refiere a la traducción entre diferentes idiomas. Pero el problema es más sutil. En todo el mundo, la gente mezcla idiomas y expresiones locales en línea, un fenómeno que los lingüistas llaman “cambio de código”.
El periodismo climático se ha hecho cada vez más en línea, pero hay menos reporteros climáticos en el mundo en desarrollo. Esto limita la profundidad y la disponibilidad de información para una enorme proporción de la población mundial y determina cómo se debaten y comprenden las cuestiones climáticas en las diferentes regiones.
Por ejemplo, una publicación en las redes sociales del Reino Unido podría plantear una preocupación medioambiental mediante expresiones como: “¿Ya se están inundando las carreteras? Me alegra saber que el ayuntamiento se está burlando”. La mayoría de las herramientas de inteligencia artificial pueden captar el sarcasmo y la frustración dirigidos a las autoridades locales.
En un país como Nigeria, la gente puede describir las preocupaciones que se están desarrollando de manera diferente: “¿Abeg, es octubre y llueve así, pero usted dice que el clima no ha cambiado?” o “¡Río don cerca de nuestra casa! ¡Abeg ayuda, podemos estropearlo todo!”
Aquí, la jerga y el pidgin expresan un peligro inmediato y una llamada urgente de ayuda. Sin embargo, los modelos de IA a menudo reducen esto a comentarios casuales, pasando por alto por completo la urgencia y la emoción que se transmite.
Esto es importante porque la mayoría de los sistemas de IA se enseñan en textos extensos centrados en Occidente, principalmente de América del Norte y Europa. ChatGPT, por ejemplo, recibe instrucciones sobre grandes cantidades de texto de Internet. No tiene creencias, sentimientos ni conciencia. En cambio, genera respuestas basadas en patrones que ha visto en línea.
La IA refleja la cultura dominante en sus datos de entrenamiento, por lo que lleva una “huella digital cultural”. Imita formas normales de expresar ideas de las sociedades que produjeron los textos de los que ha aprendido. Los modelos de IA entrenados con textos predominantemente en inglés muestran un sesgo oculto que favorece los valores culturales occidentales, particularmente cuando se les pregunta en inglés.
Una de las principales razones por las que la IA puede producir resultados sesgados es que refleja las desigualdades sociales, incluidas las diferencias de raza, género y región, que aparecen en los datos de los que aprende. Por lo tanto, las voces subrepresentadas de comunidades de países en desarrollo con variedades de inglés no anglocéntricas a menudo son minimizadas o ignoradas.
Este sesgo puede tener consecuencias reales. En crisis climáticas como inundaciones, olas de calor u otras condiciones climáticas extremas, los mensajes mal interpretados podrían poner en riesgo propiedades y vidas.
Los sistemas de inteligencia artificial que se basan en patrones pasados son fáciles de interpretar cuando el lenguaje se ajusta a los estándares esperados, pero las publicaciones que no se ajustan a la presencia de jerga local o señales de urgencia pueden malinterpretarse.
Mejorar las respuestas a los desastres climáticos
Resolver este problema implica diseñar sistemas que realmente reflejen la forma en que las personas se comunican. Los sistemas de inteligencia artificial deben capacitarse para comprender las expresiones regionales y reconocer que el significado a menudo depende del contexto cultural, no solo de las palabras literales.
La IA debe probarse en publicaciones reales en línea, no en inglés formal centrado en Occidente, para captar la urgencia y las referencias locales. Los sistemas automatizados pueden procesar enormes volúmenes de información, pero el juicio humano debe permanecer al tanto, especialmente cuando está en juego la seguridad de las personas.
Las herramientas de inteligencia artificial pueden ayudar a las comunidades a responder a inundaciones, olas de calor y otras emergencias climáticas, pero solo una vez capacitadas para interpretar los matices del lenguaje cotidiano, de modo que las advertencias y las llamadas de ayuda lleguen.
Ifeoluwa Wuraola, candidata a doctorado, Inteligencia Artificial, Universidad de casco; Daniel Marciniak, profesor de Criminología, Universidad de cascoy Nina Dethlefs, profesora de informática, Universidad de Loughborough
Foto principal de Chris Gallagher en Unsplash