El futuro de internet definido por la «inevitable» convergencia de las experiencias virtuales del metaverso con el auge de la inteligencia artificial plantea el desafío de cómo «inyectar diversidad» en estas plataformas para contrarrestar la uniformidad cultural de los algoritmos, sostuvo Micaela Mantegna, abogada, activista, apasionada de los videojuegos y fundadora de Women in Games Argentina.
En diálogo con Télam, la especialista señaló que «la diversidad que podamos inyectar en estas plataformas va a generar más diversidad para el futuro». Conocida también como «abogamer», Mantegna es investigadora en el Berkam Klein Center de la Universidad de Harvard, una de las 20 personas que TED Fellow elige anualmente para hablar sobre temas vinculados a Futuro y miembro del World Economic Forum, donde investiga sobre políticas vinculadas al desarrollo del metaverso.
-Micaela, ¿hacia dónde va internet?
-Quienes conocimos internet en los años 90 sabemos que desde que se empezó a hablar de metaverso se instaló la idea de que iba a ser el futuro de la red, pero hoy esto está puesto en duda, porque debido a la explosión que tuvo la Inteligencia Artificial Generativa (IAG) en las últimas semanas, en paralelo se frenaron las inversiones que se venían haciendo en las tecnologías vinculadas al metaverso, lo que provocó una tendencia en los medios que empezaron a hablar de la muerte del metaverso.
Yo sostengo que el «mundo virtual» no murió, sino que las empresas dejaron de invertir en el modelo del metaverso basado en los videojuegos y apostaron por su evolución en las redes sociales. Un ejemplo de esto es lo que está pasando con «Fortnite», que se está transformando en una especie de «Roblox» con nuevos contenidos y, si bien todavía es un juego, empieza a tomar roles sociales, propios de las plataformas y, a su vez, las redes sociales se empiezan a «gamificar» y a tomar elementos de los videojuegos.
Mi propuesta es pensar que el futuro metaverso podrá ser todo o nada, que aún está en progreso y que será una convergencia de tecnologías, de fenómenos sociales y de realidades, que al pasar de una internet de dos planos a una tridimensional (contextual), agregará capas extras de información, lo que no sucede con la IA que es lineal y sus resultados se basan en la estadística.
-¿Qué relación hay entre el metaverso y la inteligencia artificial?
-Me gusta pensar al metaverso como un artefacto cultural complejo que tiene tecnologías de internet, inteligencia artificial, redes 5 G y, en el que convergen comportamientos sociales que vienen de los videojuegos, formas de usar internet que vienen de las redes sociales, experiencias humanas y espectros de la realidad social. Un «espacio virtual» donde en el futuro podamos educarnos, comprar productos, entretenernos mirando y escuchando un concierto, etc. Tal espacio virtual va a necesitar generar contenido dinámico permanentemente y la IA se encargará de crear los contenidos a partir de lo aprendido en los datos de entrenamiento.
Pero, en este punto, es necesario desmitificar los conceptos puesto que lo que hoy denominamos IA son aplicaciones de aprendizaje automático basado en datos (machine learning), y no una inteligencia general. Y esto está relacionado con el concepto de «algoritmo de regresión», ya que el aprendizaje automático necesita mirar al pasado para predecir el futuro, es decir mirar los datos que ya tiene y hacer un recorte de la realidad, pero en ese recorte van los sesgos, la visión de mundo y la forma de resolver los problemas que tiene la persona o el grupo de personas que crearon los contenidos. Esos algoritmos, con sesgos y carentes de valores morales, profundizan las desigualdades y enriquecen solo a las grandes corporaciones tecnológicas. Entonces, mientras se siga hablando de manera críptica, el campo sólo estará reservado a los expertos. En cambio, cuando se corre el velo de la terminología, aparecen aspectos en los que todos podemos involucrarnos para pensar en cómo hacer un puente hacia los problemas éticos y regulatorios. Internet creció mucho en los últimos años, y en muchos aspectos perjudicó a la sociedad, pero ahora tenemos una chance de repensar los modelos y hacerla de nuevo.
-¿Desde dónde habría que repensar los modelos?
-Para explicar qué es la IA o qué es un algoritmo, siempre digo que al aprendizaje automático basado en datos lo podemos pensar con el mismo funcionamiento que el sistema digestivo: ingresan datos como «ingredientes», se da una secuencia de procesos y luego, tenemos un resultado. Entonces, así como somos lo que comemos y, aquello que nos nutre determina nuestro estado de ánimo, lo mismo pasa con la calidad de la información resultante en estos sistemas y si no tenés datos de calidad, el resultado va a ser incorrecto, o va a estar sesgado o va a tener algún tipo de deficiencia. Esto que parece sencillo, empieza a complejizarse cuando pensamos que los datos que ingresan pueden ser discriminatorios.
-¿Por ejemplo?
-Hace algunos años se desarrolló un algoritmo – un modelo – , que trataba de identificar entre los Curriculum Vitae (CV) de los postulantes a un trabajo, quienes podían ser seleccionados para un determinado puesto. Hoy en día, es muy común que haya aplicaciones para optimizar los CV, y de hecho hay personas que lo hacen a través de ChatGPT, porque se sabe que no los leen seres humanos sino máquinas. Tiempo después, se descubrió que los puestos gerenciales habían sido ocupados siempre por hombres. De modo que, se había creado un modelo que había aprendido a privilegiar a los candidatos varones por sobre las candidatas mujeres.
A punto tal que, a los varones que habían estudiado en un colegio que tenía nombre de mujer, el algoritmo les ponía un puntaje más bajo. Acá aparece lo que decía antes: la IA no es inteligente y no es infalible, más bien se trata de un gran «truco de ilusionismo», puesto que implica pensar estadísticamente sobre un problema y brindar una respuesta basada en la estadística, sin tener en cuenta el contexto. El problema es que interactuamos con algoritmos constantemente y cuando Netflix te sugiere qué películas podés elegir, es porque está pensando en tu perfil y está seleccionando por vos las opciones que te pueden agradar. Entonces, hay que tomar conciencia porque puede convertirse en un arma de doble filo: por un lado, lo positivo de automatizar tareas rutinarias, pero por otro, ese perfil puede utilizarse el día de mañana en un sistema de scoring (puntuación) que te perjudique.
-¿Cómo construimos regulaciones éticas para romper con el sesgo del algoritmo?
-Necesitamos crear puentes entre la comunidad técnica, los abogados y los reguladores. Dialogar con todos los sectores e incitar a la comunidad técnica a que nos explique las cosas que como abogados y académicos no entendemos, y viceversa. Explicarles, desde nuestra experiencia, cuestiones de ética y de legalidad que quizás dentro de la eficacia de los modelos matemáticos se pierden. Hoy, diversas minorías culturales no están siendo contempladas dentro de la tecnología entonces, es necesario incorporar gente diversa para contar historias diversas. La diversidad que podamos inyectar en estas plataformas va a generar más diversidad para el futuro.
Pienso que las regulaciones fuertes capaces de intervenir en la tecnología van a venir del lado del derecho del consumidor. Ejemplo de ello es la regulación europea – de protección de los datos personales – la cual, si logra triunfar, será una regulación fuerte, capaz de prohibir determinados usos porque son violatorios o porque atentan contra derechos humanos. En ese sentido, si logra contribuir a reducir el estándar: esto es – siguiendo el ejemplo de los CV – , que tu performance en el trabajo sea medida por un ser humano y no por un algoritmo que no entiende ni de contexto ni de valores, algo habremos avanzado.
Fuente: Télam
Déjanos tu Comentario!