La Inteligencia Artificial es una realidad y cada día está más incorporada en la vida cotidiana. Muchos especialistas hablan de estas nuevas tecnologías como el reemplazo de la creatividad humana y otros de una amplificación de nuestro trabajo. Se pone en debate su uso en torno a la ética, la responsabilidad social y el control que se puede ejercer con la misma.
- Te puede interesar: La nueva revolución tecnológica de la IA: ¿qué deparará el futuro?
Para ello, conversamos con Maia Numerosky, matemática, desarrolladora de software e ingeniera en el aprendizaje automático de la IA. Su trabajo se concentra más que nada en la visión artificial, entrenando a las redes neuronales para identificar aspectos de una imagen.

Los debates en torno a la IA generativa y sus funciones
-¿Cómo ha evolucionado la tecnología de modelos generativos y redes neuronales?
-Aunque la tecnología de modelos generativos es relativamente nueva, su desarrollo se remonta a muchos años atrás. Las redes neuronales comenzaron resolviendo problemas simples, como la lectura de números en cheques. A medida que avanzaba el poder de cómputo y se abarataban los costos, han mejorado significativamente en sus capacidades.
Las diferentes arquitecturas de redes neuronales han evolucionado para procesar lenguaje, imágenes, audio y más. Aunque han estado en desarrollo durante décadas, el avance más notable se ha visto con la llegada de modelos como ChatGPT.
-¿Cuáles son los impactos actuales de esta tecnología?
-Los impactos se están haciendo evidentes a medida que se avanza en su desarrollo. Existe un debate entre quienes creen que estas tecnologías reemplazarán trabajos y eliminarán la creatividad humana, y aquellos que piensan que podrían permitirnos trabajar menos horas.
Recientemente, un informe de Goldman Sachs sugiere que existe un entusiasmo desmedido respecto a estas herramientas. Para programadores y profesionales que trabajan con lenguaje, ChatGPT ha demostrado ser muy útil para acelerar procesos, aunque actualmente no son lo suficientemente maduros para reemplazar trabajos completos. Los trabajos implican diversas tareas y se ha observado que los modelos generativos a menudo “alucinan” al generar respuestas.
- Te puede interesar: “Prompt Engineer”: qué es y cuál es su rol en la era de la Inteligencia Artificial
-¿Qué son las alucinaciones en modelos como ChatGPT?
-Las alucinaciones ocurren cuando el chatbot proporciona información incorrecta pero lo hace con confianza. Por ejemplo, se ha afirmado que un profesor universitario había cometido un delito sexual o, incluso, ha creado casos legales que no existen y los abogados los han citado en una corte. Esto revela la necesidad de supervisión humana, ya que estos modelos no son confiables en todas las tareas.
-¿Qué desafíos plantean estas tecnologías en el ámbito laboral?
-Existen tecnologías que analizan expresiones faciales en entrevistas de trabajo para predecir comportamientos como, por ejemplo, qué probabilidad hay de que una persona renuncie con solo la expresión de su cara. La base científica es muy cuestionable y se tiene que rever la ética detrás de estas acciones.
Además, estos sistemas de IA requieren grandes cantidades de datos y eso plantea preocupaciones sobre la privacidad. También hay implicaciones en la vigilancia y la hiperproductividad que afectan la ergonomía y pueden aumentar las lesiones laborales. Por ejemplo, el seguimiento algorítmico en fábricas ha llevado a un aumento de lesiones en trabajadores.

-¿Cuáles son los aspectos positivos y negativos del avance de la Inteligencia Artificial?
-Es crucial no concebir la tecnología como algo autónomo. Tenemos que entender que es una creación humana y un instrumento que refleja decisiones y valores. La pregunta central es quién toma esas decisiones sobre qué tecnología desarrollar y con qué propósitos.
Por ejemplo, los modelos de lenguaje actuales funcionan significativamente mejor en inglés, ya que quienes están al mando de su desarrollo son predominantemente angloparlantes. Esto significa que los beneficios de estas tecnologías se concentran en comunidades que hablan inglés. Además, el uso de Inteligencia Artificial para monitorear la productividad en fábricas puede perjudicar a trabajadores, especialmente a aquellos de sectores socioeconómicos más vulnerables. El enfoque debería estar en la gobernanza y en cómo se distribuyen los beneficios y perjuicios de estas tecnologías.
El impacto de la IA en el mercado laboral
-Tal vez sería ideal que el acceso a este tipo de modelos esté democratizado, ¿cómo debería implementarse la capacitación en el uso de estas tecnologías?
-El acceso a tecnologías de Inteligencia Artificial es considerablemente costoso. Las empresas que las desarrollan, como OpenAI, operan a menudo a pérdida, lo que limita la disponibilidad de herramientas efectivas y gratuitas. Aunque algunas versiones son accesibles, las que realmente ofrecen buenos resultados suelen requerir una suscripción mensual.
Por eso, la capacitación es esencial y debería ser continua, especialmente en el ámbito laboral. Esto implica crear programas que enseñen a los trabajadores no solo a utilizar estas herramientas, sino también a comprender su impacto en sus roles.
Es fundamental que los empleados puedan organizarse y negociar condiciones, como la transparencia en la recolección de datos y el uso de algoritmos en evaluaciones de desempeño. Así, los trabajadores no solo se adaptan a la tecnología, sino que también tienen voz en cómo se aplica en sus contextos.

-¿Cuál es la recepción de estas tecnologías en Argentina y su futuro?
-La recepción de la Inteligencia Artificial en Argentina y en América Latina debe ser analizada desde una perspectiva global, teniendo en cuenta nuestras particularidades. En marzo de 2023, un grupo de científicos emitió la declaración de Montevideo, que establece lineamientos para el desarrollo de la Inteligencia Artificial desde una mirada latinoamericana. Esta declaración enfatiza la necesidad de respetar las diferencias culturales y minimizar el impacto ambiental de los centros de datos, que suelen ser muy contaminantes.
Además, resalta la importancia de incluir a los grupos vulnerables en las discusiones regulatorias y en el desarrollo de tecnologías. En Latinoamérica, muchos trabajadores ocupan roles que son más susceptibles a ser afectados por la automatización, por lo que es crucial abordar el impacto en el empleo. Se debe garantizar que los modelos de IA sean inclusivos, no discriminatorios y que contribuyan al bienestar de la sociedad, no solo a la eficiencia de las empresas. Tienen que tener una visión ética al respecto.

-¿Qué impacto tiene la Inteligencia Artificial en el mundo laboral, y cómo se puede abordar?
-Actualmente, el avance de la Inteligencia Artificial está causando cambios significativos en el mercado laboral. Existen sectores donde ya se están produciendo despidos, como en la industria de los videojuegos, debido a la capacidad de las herramientas de generación de imágenes. A menudo, estas tecnologías son más eficientes y económicas que los artistas humanos, lo que genera una presión sobre los trabajadores.
Es crucial que los sindicatos y las organizaciones de trabajadores participen en la conversación sobre cómo implementar estas tecnologías de manera que beneficien a todos. Esto incluye la necesidad de transparencia en la recolección de datos y el uso de algoritmos en la evaluación del desempeño, asegurando que sean los seres humanos quienes realicen estos análisis, en lugar de depender de una máquina.
La Inteligencia Artificial y los sesgos
-A principio de año Google lanzó Gemini y se mencionó que generaba imágenes con un enfoque “woke” y fue muy criticado por eso ¿A qué se debe esa crítica?
-Eso se relaciona con un fenómeno más amplio conocido como sesgos en Inteligencia Artificial. Los algoritmos de IA se entrenan con grandes volúmenes de datos, y, por ende, reproducen los patrones que encuentran en ellos. Por ejemplo, si entreno un algoritmo con fotos de perros y gatos, podría fallar si le presento un gato que no se asemeja a los ejemplos que ha visto. Esto se complica aún más cuando consideramos que ciertos grupos están subrepresentados en esos datos, lo que lleva a resultados sesgados.
-¿Podrías darme un ejemplo específico sobre cómo esto se relaciona con Gemini?
-Gemini, como otros modelos generativos, intenta ofrecer representaciones culturalmente diversas. Sin embargo, su enfoque para corregir los sesgos no fue bien implementado. Por ejemplo, si le pedís una imagen de un soldado alemán, la intención era generar una representación. Pero lo que ocurrió fue que la instrucción interna al algoritmo priorizaba la diversidad sobre la precisión histórica. Así, los resultados podían parecer incoherentes con la realidad, lo que llevó a críticas.
-Entonces, ¿el problema es que intentaron corregir un sesgo pero lo hicieron de manera inapropiada?
-Exactamente. Google buscó mejorar la representación en las imágenes, pero no evaluó adecuadamente cómo sus modificaciones afectarían los resultados. Cada vez que se lanza un nuevo algoritmo, se somete a un exhaustivo análisis por parte de la comunidad para descubrir sus debilidades. Existen posturas extremas: algunos consideran que estos algoritmos son infalibles y otros que no sirven para nada.

Inteligencia Artificial y una valoración clave
-¿Cómo ves la utilidad de estos algoritmos en general y, más que nada, a largo plazo?
-Mi perspectiva es más matizada. Es crucial entender para qué sirven y para qué no. Los algoritmos son probabilísticos y no siempre ofrecen la precisión necesaria, especialmente en áreas críticas como la salud o la conducción autónoma. En tareas rutinarias donde la tasa de error es menor que la de un ser humano, su uso es aceptable. Es fundamental identificar sus aplicaciones adecuadas y limitaciones, en función de la ética.
- Te puede interesar: ¿Cómo puede ayudar la Inteligencia Artificial en el ámbito educativo?
Lo más importante es reconocer las capacidades y limitaciones de estos algoritmos. Debemos aprender a utilizarlos en contextos donde puedan agregar valor y evitar su aplicación en situaciones donde la precisión sea crucial. La clave es saber en qué tareas son efectivos y en cuáles no deben ser utilizados.