Título: Análisis del posible uso de la inteligencia artificial generativa en procesos formativos
Autora: Scavone, Graciela María1
Recibido: 20/11/2024
Aceptado: 11/12/2024
Resumen
En el marco de la creciente digitalización y automatización de procesos, la inteligencia artificial generativa (IAGen) se ha consolidado como una herramienta potencialmente transformadora en diversos sectores, incluido el educativo. Este artículo explora las posibilidades y los retos del uso de la IAGen en la formación académica. El objetivo consiste en contribuir a optimizar la enseñanza, personalizar el aprendizaje y potenciar la creación de contenidos especializados para la formación de posgrado, la cual enfrenta desafíos crecientes, como la necesidad de personalización del aprendizaje, la actualización constante del contenido académico y la incorporación de tecnologías emergentes. La IAGen ha demostrado capacidades significativas en la creación de recursos educativos, tutoría personalizada y apoyo en la investigación, lo que abre nuevas oportunidades para transformar la educación superior. Por otro lado, es importante destacar que no solo se identifican beneficios, sino que también existen riesgos que es necesario mitigar. Se ha indagado sobre los posibles beneficios para las ciencias económicas referidos principalmente a la personalización del contenido educativo, la simulación de escenarios económicos complejos, la optimización de los procesos de investigación, y la incorporación de aplicaciones que brindan mayor competitividad. En conclusión, la IAGen presenta un enorme potencial para mejorar y personalizar la educación de posgrado, y optimizar los tiempos dedicados a capacitación. Sin embargo, se requieren más estudios para abordar cuestiones éticas, de calidad y de integración pedagógica.
Palabras clave: Inteligencia artificial generativa – educación - posgrado - integración
Clasificación JEL: M
Clasificación UNESCO: 53
Title: Analysis of the possible use of Generative Artificial Intelligence in training processes.
Abstract
In the context of the growing digitalization and automation of processes, generative artificial intelligence (AIGen) has established itself as a potentially transformative tool in various sectors, including education. This presentation explores the possibilities and challenges of using GAI in academic training. The objective is to contribute to optimizing teaching, personalizing learning and promoting the creation of specialized content for postgraduate training, which faces growing challenges, such as the need for personalized learning, the constant updating of academic content and the incorporation of emerging technologies. AIGen has demonstrated significant capabilities in the creation of educational resources, personalized tutoring and research support, which opens new opportunities to transform higher education. On the other hand, it is important to highlight that not only benefits are identified, but there are also risks that need to be mitigated. The potential benefits for economic sciences have been investigated, mainly in relation to the personalization of educational content, the simulation of complex economic scenarios, the optimization of research processes, and the incorporation of applications that provide greater competitiveness. In conclusion, IAGen presents huge potential to improve and personalize postgraduate education and optimize the time dedicated to training. However, further studies are required to address ethical, quality, and pedagogical integration issues.
Keywords: Generative artificial intelligence - education - postgraduate - integration
Título: Análise da possível utilização da inteligência artificial gerativa em processos de formação.
Resumo
No quadro da crescente digitalização e automatização de processos, a inteligência artificial generativa (IAGen) tem-se afirmado como uma ferramenta potencialmente transformadora em vários setores, incluindo a educação. Este artigo explora as possibilidades e desafios do uso do IAGen na formação acadêmica. O objetivo é contribuir para otimizar o ensino, personalizar a aprendizagem e promover a criação de conteúdos especializados para a formação pós-graduada, que enfrenta desafios crescentes, como a necessidade de personalização da aprendizagem, atualização constante de conteúdos acadêmicos e incorporação de tecnologias emergentes. O IAGen demonstrou capacidades significativas na criação de recursos educativos, orientação personalizada e apoio à investigação, abrindo novas oportunidades para transformar o ensino superior. Por outro lado, e importante destacar que não só são identificados benefícios, mas também existem riscos que devem ser mitigados. Os possíveis benefícios para as ciências econômicas têm sido investigados, principalmente no que se refere à personalização de conteúdos educacionais, à simulação de cenários econômicos complexos, à otimização de processos de pesquisa e à incorporação de aplicativos que proporcionem maior competitividade. Concluindo, o IAGen apresenta um enorme potencial para melhorar, personalizar o ensino de pós-graduação e otimizar o tempo dedicado à formação. No entanto, mais estudos são necessários para abordar questões éticas, de qualidade e de integração pedagógica.
Palavras-chave: Inteligência artificial gerativa - educação - pós-graduação - integração
Introducción
En las últimas décadas, la inteligencia artificial (IA) ha emergido como una de las tecnologías más disruptivas y transformadoras, con aplicaciones que abarcan desde la automatización de procesos industriales hasta la toma de decisiones complejas en ámbitos como la medicina, la educación y las ciencias sociales. En particular, la inteligencia artificial generativa, una rama de la IA que se centra en la creación de nuevos contenidos a partir de patrones previamente aprendidos, ha cobrado relevancia en diversos campos debido a su capacidad para generar texto, imágenes, audio y otros tipos de datos de manera autónoma y coherente.
Ante los avances rápidos y continuos de la tecnología en general, y de la Inteligencia artificial en particular, es importante tomar conocimiento de cómo las nuevas herramientas que van incursionando en la vida laboral deben ser incorporadas en la formación académica.
En esta línea, es esencial destacar que la Federación Internacional de Contadores (IFAC, por sus siglas en inglés) ha reconocido la importancia y el impacto de la inteligencia artificial generativa (IAGen) en el campo de la contabilidad y las finanzas, y ha abordado el tema desde una perspectiva ética y profesional (2022).
En particular, la IFAC ha enfatizado la necesidad de que los contadores adopten la IA de manera responsable, con el objeto de asegurar que su uso se alinee con los principios éticos fundamentales, como la integridad, objetividad y la competencia profesional.
Este organismo ha señalado que la inteligencia artificial, incluida la IAGen, puede mejorar significativamente la eficiencia y la calidad de los servicios contables, especialmente en áreas como la auditoría y la automatización de tareas rutinarias. Sin embargo, también subraya la importancia del juicio humano para interpretar y validar los resultados generados por la IA, dado que la automatización no puede reemplazar la experiencia profesional en situaciones complejas o éticamente delicadas.
Además, a través de la publicación Exploring the IESBA Code (IFAC, 2022), se ha destacado cómo los contadores pueden identificar y mitigar los riesgos éticos asociados al uso de la IA. Este documento ofrece una guía para asegurar que la implementación de esta no comprometa los estándares éticos establecidos, y ayuda a los profesionales a tomar decisiones informadas frente a desafíos relacionados con la independencia y la objetividad. Este enfoque ético refleja el compromiso de IFAC con el uso responsable de la tecnología emergente y su impacto en la profesión contable a nivel global.
Dichos antecedentes dan cuenta de la tendencia actual en relación con la AIGen, y en consecuencia de la necesidad de que esta temática sea abordada en los contextos de educación superior.
En este trabajo, hacemos una exploración preliminar de la IAGen y de sus beneficios, limitaciones y riesgos con el fin de abrir el debate acerca de su utilización en la formación universitaria de posgrado.
Formulación del problema
El presente trabajo de investigación se enfoca en la posible utilización de la inteligencia artificial generativa en la educación de posgrado en ciencias económicas. Dada la naturaleza de esta disciplina, que abarca el análisis de grandes volúmenes de datos, la modelización matemática y la toma de decisiones en escenarios complejos, la IAGen podría ofrecer herramientas valiosas para mejorar tanto la enseñanza como el aprendizaje. Entre los posibles beneficios destacan la personalización del contenido educativo, la simulación de escenarios económicos complejos y la optimización de los procesos de investigación académica.
Sin embargo, el uso de la IAGen en el ámbito educativo plantea desafíos importantes, entre los que se incluyen la validación de la información generada, la ética en la utilización de estas tecnologías y la adaptación de los programas de estudio a las nuevas metodologías. Esta investigación tiene como objetivo explorar los potenciales beneficios y limitaciones de la implementación de la IAGen en la educación de posgrado en ciencias económicas, y proporcionar una base para futuras investigaciones y discusiones en torno a la integración de tecnologías avanzadas en la educación superior.
Objetivos de la investigación
Dada la necesidad de tomar conocimiento sobre el potencial de la IAGen en relación con la educación de posgrado, el objetivo de la presente investigación consiste en brindar elementos para reflexionar acerca de la necesidad de la incorporación de herramientas tecnológicas específicas con el fin de contribuir a mejorar y optimizar el proceso de enseñanza aprendizaje enfocado en la formación de posgrado universitario.
Marco teórico
¿Qué es la IAGen?
La inteligencia artificial generativa (IA) describe algoritmos (como ChatGPT) que se pueden utilizar para crear contenido nuevo, incluido audio, código, imágenes, texto, simulaciones y videos. Avances recientes en el campo tienen el potencial de cambiar drásticamente la forma en que se aborda la creación de contenidos.
El ChatGPT surgió en noviembre de 2022, y ha recorrido un largo camino con nuevas herramientas, reglas y tecnologías iterativas. Si bien muchas personas han reaccionado ante este en forma negativa, el aprendizaje automático claramente tiene un buen potencial. En los años transcurridos desde su amplio despliegue, el aprendizaje automático ha demostrado su impacto en un número de industrias, y ha tenido logros tales como el análisis de imágenes médicas y el clima de alta resolución.
Una encuesta realizada por McKinsey en 2022 muestra que respecto a la IA la adopción se ha más que duplicado en los últimos cinco años, y la inversión en ella está aumentando rápidamente. Resulta claro que las herramientas de IAGen como el ChatGPT (el término GPT significa transformador generativo preentrenado) y el generador de imágenes DALL-E (una mezcla del nombre del artista surrealista Salvador Dalí y el adorable robot de Pixar, Wall-E) tienen el potencial para cambiar la forma en que se realizan una variedad de trabajos. Sin embargo, aún se desconoce el impacto total, al igual que los riesgos. Aun así, organizaciones de todo tipo se han apresurado en incorporar herramientas de IA de generación en sus modelos de negocio y educativos, con la intención de avanzar hacia la innovación y la competitividad.
La investigación de Singla et al. (2024) indica que las aplicaciones de IA de generación podrían sumar hasta 4,4 billones de dólares al gasto mundial anualmente. De hecho, parece posible que, dentro de los próximos tres años, cualquier elemento dentro del ámbito de la tecnología, los medios y las telecomunicaciones no conectado a la IA se considerará como obsoleto o ineficaz.
Pero antes de poder acumular todo ese valor, debemos aclarar algunas cosas: ¿Qué es la IA genérica y cómo se desarrolló, y qué significa para las personas y para las organizaciones? ¿Cuáles son los principales tipos de máquinas y modelos de aprendizaje?
El aprendizaje automático se basa en una serie de bloques de construcción, que comienza con la estadística clásica, y técnicas desarrolladas entre los siglos XVIII y XX para pequeños conjuntos de datos. En los años 1930 y la década de 1940, los pioneros de la informática trabajaron en las técnicas básicas para aprender, pero estas se limitaron a los laboratorios hasta finales de los años 1970, cuando los científicos empezaron a usar las primeras computadoras desarrolladas con la suficiente potencia como para ver resultados interesantes.
Hasta hace poco el aprendizaje automático era en gran medida limitado a modelos predictivos, utilizados para observar y clasificar patrones en el contenido. El problema de aprendizaje comienza con una imagen o varias; imágenes de, por ejemplo, perritos jugando, para luego identificar patrones entre estas, y examinar imágenes aleatorias en busca de aquellas que coincidan con el adorable patrón del gato. La IA generativa representó un gran avance. En lugar de simplemente percibir y clasificar una foto de un gato, el aprendizaje automático ahora puede crear una imagen o descripción de texto de un gato a pedido (Ahmed, S. et al., 2022).
¿Cómo funcionan los modelos de aprendizaje automático basados en texto?
El ChatGPT es muy popular últimamente, pero no es el primer modelo de aprendizaje automático basado en texto. Antes de él ―que aparentemente funciona bastante bien, aunque todavía no cuenta con evaluación oficial― no siempre se obtuvieron las mejores críticas.
Los primeros modelos de aprendizaje automático que trabajaron con texto fueron entrenados por humanos para clasificar diversas entradas según las etiquetas establecidas por los investigadores. Un ejemplo sería un modelo entrenado para etiquetar publicaciones en redes sociales como positivas o negativas. Este tipo de entrenamiento se conoce como aprendizaje supervisado porque un humano está a cargo de "enseñar" al modelo qué debe hacer.
La construcción de un modelo de IAGen ha sido en su mayor parte una tarea importante, hasta el punto de que solo unos pocos grandes oferentes de tecnología, con buenos recursos, lo han intentado. OpenAI, la empresa detrás de ChatGPT, antiguos modelos GPT y DALL-E cuentan con financiación millonaria de donantes de renombre. Las empresas que han avanzado en este sentido emplean a algunos de los mejores científicos e ingenieros informáticos del mundo.
Pero no se trata solo de talento, sino también de inversión. OpenAI no ha publicado los costos exactos, pero las estimaciones indican que GPT-3 se entrenó con alrededor de 45 terabytes de datos de texto (es decir, alrededor de un millón de pies cuadrados de espacio en una estantería, o una cuarta parte de toda la Biblioteca del Congreso) a un costo estimado de varios millones de dólares. Estos no son recursos a los que pueda acceder una organización educativa corriente.
Como se deduce de lo anteriormente explicado, los resultados de los modelos de IA generativa pueden ser indistinguibles del contenido generado por humanos, o pueden parecer un poco extraños. Los resultados dependen de la calidad del modelo; como hemos visto, los resultados de ChatGPT hasta ahora parecen superiores a los de sus predecesores, y de la correspondencia entre el modelo y el caso de uso, o la entrada.
Los modelos de IA generadores de imágenes como DALL-E 2 pueden crear imágenes extrañas y hermosas a pedido, como una pintura de Rafael de una Virgen con el niño comiendo pizza. Otros modelos de IA generativos pueden producir código, video, audio o simulaciones comerciales. Pero los resultados no siempre son precisos o apropiados.
Por su parte, ChatGPT parece tener problemas para contar o resolver problemas básicos de álgebra o, de hecho, superar el sesgo sexista y racista que acecha en las corrientes subyacentes de internet y la sociedad en general.
Los resultados de la IAGen son combinaciones cuidadosamente calibradas de los datos utilizados para entrenar los algoritmos. Debido a que la cantidad de datos utilizados para entrenar estos algoritmos es increíblemente masiva, los modelos pueden parecer "creativos" al producir resultados. Es más, los modelos generalmente tienen elementos aleatorios, lo que significa que pueden producir una variedad de resultados a partir de una solicitud de entrada, lo que los hace parecer aún más reales (García-Vera et al., 2023).
¿Qué tipos de problemas puede resolver un modelo de IAGen?
La oportunidad para las organizaciones es clara. Las herramientas de inteligencia artificial generativa pueden producir una amplia variedad de textos creíbles en segundos y luego responder a las críticas para que el texto sea más adecuado para el propósito. Esto tiene implicaciones para una amplia variedad de industrias, desde organizaciones de tecnología y software que pueden beneficiarse del código instantáneo, y en gran medida correcto generado por modelos de inteligencia artificial, hasta organizaciones que necesitan textos de diversos tipos. En resumen, cualquier organización que necesite producir materiales escritos claros puede beneficiarse potencialmente.
Las organizaciones también pueden usar la inteligencia artificial generativa para crear materiales didácticos, más técnicos, como versiones de mayor resolución de imágenes médicas, y con el tiempo y los recursos ahorrados de esta manera, pueden buscar nuevas oportunidades y la posibilidad de crear más valor.
Desarrollar un modelo de inteligencia artificial generativa confiable requiere muchos recursos por lo que podría estar fuera del alcance de muchas organizaciones, excepto las más grandes y mejor posicionadas.
Sin embargo, quienes buscan poner en práctica la IAGen tienen la opción de utilizarla de manera inmediata o de ajustarla para que realice una tarea específica. Por ejemplo, si necesita preparar diapositivas de acuerdo con un estilo específico, puede pedirle al modelo que “aprenda” cómo se escriben normalmente los titulares en función de los datos de las diapositivas, luego introducir dichos datos y pedirle que escriba los titulares adecuados.
La bibliografía consultada coincide en que todavía no se ha visto en una medida significativa el efecto de los modelos de IA generativos. Esto significa que existen riesgos inherentes involucrados en su uso, algunos conocidos y otros no.
Los resultados que producen los modelos de inteligencia artificial generativos pueden ser a menudo extremadamente convincentes, sin embargo, a veces la información que generan es simplemente errónea, peor aún, a veces es sesgada porque está construida sobre bases de género, raza u otros sesgos de internet y de la sociedad en general que suman una miríada que puede ser manipulada para permitir actividades poco éticas o delictivas.
Las organizaciones que dependen de estos modelos deben tener en cuenta los riesgos legales y de reputación que implica publicar involuntariamente contenido sesgado, ofensivo o protegido por derechos de autor. Sin embargo, estos riesgos se pueden mitigar de algunas maneras. En primer lugar, es fundamental seleccionar cuidadosamente los datos iniciales utilizados para entrenar a estos modelos para evitar incluir contenido tóxico o sesgado. En lugar de emplear un modelo de IA generativa listo para usar, las organizaciones podrían considerar el uso de modelos más pequeños y especializados.
Las organizaciones con más recursos también podrían personalizar un modelo general basado en sus propios datos para ajustarlo a sus necesidades y minimizar los sesgos. A su vez, las organizaciones educativas deberían asignar a un responsable para supervisar contenidos, una persona que pueda verificar el resultado de un modelo de IAGen antes de que se publique o use a fin de mitigar su impacto para decisiones críticas, como aquellas que involucran recursos significativos, la educación o el bienestar humano en general.
Se debe enfatizar que este es un campo nuevo. Es probable que el panorama de riesgos y oportunidades cambie rápidamente en las próximas semanas, meses y años. Se están probando nuevos casos de uso sin aún resultados verificables publicados, y es probable que se desarrollen nuevos modelos en los próximos años.
A medida que la IAGen se incorpora cada vez más y sin problemas a las organizaciones, a la sociedad y a la vida diaria, también podemos esperar que tome forma un nuevo clima regulatorio. A medida que las organizaciones comiencen a experimentar y crear valor con estos modelos, y se generen herramientas de distintos tipos y para variados usos, deberían crease políticas y regulaciones que adviertan acerca de las oportunidades y los riesgos de todo tipo asociados a su uso.
Reflexiones acerca de la formación para una nueva demanda
Decidir cómo responder a los riesgos entrantes es una prioridad para muchos equipos ejecutivos. Esta decisión debería servir como base para la forma en que una organización comunica sobre la inteligencia artificial a sus equipos de trabajo y partes interesadas. También debería informar el enfoque de los casos de uso. Observamos cuatro fuentes principales de riesgo entrante a partir de la adopción de IAGen:
amenazas de seguridad, resultantes del mayor volumen y sofisticación de los ataques del malware (software malicioso) habilitado con IAGen;
riesgo de terceros, resultante de los desafíos para comprender dónde y cómo estos pueden estar implementando IAGen, lo cual crea posibles exposiciones desconocidas;
uso malintencionado, resultante de la posibilidad de que los actores maliciosos creen deepfakes convincentes de representantes de la empresa o de la marca que resulten en un daño reputacional significativo;
violación de la propiedad intelectual (PI), resultante de imágenes, música y texto que se extrae de motores de entrenamiento para modelos accesibles a cualquier persona que use la tecnología.
La mayoría de las organizaciones se beneficiarán de un análisis enfocado en investigar cómo la IAGen está cambiando su entorno externo, con dos objetivos principales: 1. Comprender las posibles exposiciones a los riesgos ingresantes, anclados en el perfil de riesgo de la organización (por ejemplo, cuántos terceros tienen acceso a datos confidenciales o sensibles que deben restringirse para el entrenamiento de modelos de inteligencia artificial genérica externos); y 2. Comprender la madurez y la preparación del entorno de control: las capacidades técnicas y no técnicas que la organización tiene implementadas para prevenir, detectar y responder a los riesgos entrantes. Estas incluyen defensas cibernéticas y contra el fraude, la diligencia de terceros para identificar dónde pueden estar implementando inteligencia artificial genérica, y la capacidad de limitar la propiedad intelectual de la empresa por parte de los motores utilizados para entrenar modelos de lenguaje de gran tamaño.
El resultado de estos esfuerzos debería resultar en una comprensión de dónde enfrenta la organización las mayores exposiciones potenciales de riesgos, así como la madurez y preparación de su sistema de defensa actual. Una vez realizado este ejercicio, la organización debería tener una hoja de ruta clara para saber dónde reforzar las defensas y cuál sería el retorno de la inversión potencial de estos esfuerzos en la mitigación de riesgos potenciales.
Dada la naturaleza cambiante de la tecnología subyacente a la IAGen y sus aplicaciones, las organizaciones necesitarán repetir el esfuerzo para identificar su exposición con cierta regularidad, y revisar periódicamente si los riesgos han variado.
Gestión de los riesgos generados por la adopción de la IA generativa
Las organizaciones educativas con ambiciones de implementar la IAGen deberán realizar esfuerzos adicionales y continuos para comprender y gestionar los riesgos, como los que se detallan a continuación.
Los diferentes casos de uso de la IAGen están asociados con diferentes tipos de riesgo. El rendimiento y definición estratégica que consideran los riegos principales y la adopción de la tecnología se presentan como esenciales a la hora de evaluar el camino a seguir. Es probable que esto requiera una inversión de tiempo y recursos, y un cambio en las formas de trabajar. Sin embargo, es indispensable si las organizaciones quieren lograr beneficios a largo plazo, sostenibles y transformadores.
Los errores y los fracasos pueden erosionar la confianza de directivos, docentes y alumnos, y provocar una reducción del nivel de ambición hacia casos de uso más seguros que generen un riesgo limitado, pero que también sean ajenos a aprovechar el verdadero potencial de la tecnología. Las organizaciones deberían buscan implementar casos de uso de alto potencial para impulsar la productividad y la innovación; brindar un servicio mejor y más consistente; e impulsar la creatividad en los diseños educativos para abordar el desafío de la implementación responsable.
Estos casos de uso tienen diferentes perfiles de riesgo, que pueden reflejar tanto la naturaleza de la tecnología en sí como el contexto específico de la organización en relación con los aspectos puntuales del caso de uso.
El punto de partida esencial para las organizaciones que implementan casos de uso de IA generativa es mapear los riesgos potenciales asociados con cada caso en las categorías de riesgo clave para evaluar la gravedad potencial del riesgo. Por ejemplo, los casos de uso que respaldan los recorridos de los procesos educativos, como los chatbots habilitados con IAGen para el diseño de programas, pueden generar riesgos como sesgo y trato desigual entre grupos, preocupaciones de privacidad por parte de los usuarios que ingresan información sensible, y riesgos de inexactitud por alucinaciones del modelo o información desactualizada.
En relación con la propiedad intelectual, las organizaciones que implementan casos de uso de IAGen pueden hacer un mapeo que clasifique la gravedad potencial de varias categorías de riesgo. La privacidad y calidad de datos y su uso malintencionado generan amenazas a la seguridad, al rendimiento y a la aplicabilidad de recorridos estratégicos.
Obtener información importante, detectar o prevenir fraudes al agregar e interpretar documentación, y hacer gestión de riesgos de modelos que puedan resultar en una oferta de contenido personalizada, como automatizar la redacción de contratos, entre otros usos, son actividades indispensables.
Al realizar este análisis, es importante desarrollar una rúbrica para calibrar las expectativas de lo que constituye un riesgo alto frente a uno medio en las distintas categorías. De lo contrario, las organizaciones pueden encontrarse con desacuerdos motivados más por la comodidad individual en cuanto a los niveles de riesgo que por factores objetivos. Para dar un ejemplo de la privacidad de los datos, normalmente se ven cuestiones de mayor riesgo que requieren información personal o confidencial para un entrenamiento preciso del modelo, o mayor aun cuando los usuarios ingresan información personal al interactuar con la tecnología. Los casos de uso de menor riesgo no exhibirían ninguna de estas características.
Usando esta lógica, desarrollar una aplicación que apoye a un asesor en la prestación de asesoramiento personalizado tendería a alcanzar una clasificación más alta en exposición al riesgo de privacidad que una aplicación que automatiza plantillas básicas rutinarias. Es esencial que el responsable a cargo del caso de uso lidere la evaluación inicial de los riesgos asociados.
Es necesario fomentar la conciencia apropiada de los riesgos potenciales y la responsabilidad de gestionarlos cuando el caso de uso se aprueba para el desarrollo final. Además, un grupo interdisciplinario que incluya a los jefes de áreas y miembros de las funciones legales, y docentes y directivos, que trabajen con un incentivo común, debe revisar y validar las evaluaciones de riesgos para todos los casos de uso, y utilizar los resultados como información para tomar decisiones sobre la priorización de los casos para utilizar, al considerar las opciones para gestionar los riesgos en cada punto de contacto.
Una vez que una organización mapea los riesgos relacionados con la IAGen, debe desarrollar estrategias para gestionar las exposiciones a través de una combinación de mitigación y gobernanza sólida. Muchas de las mitigaciones son de naturaleza técnica y pueden implementarse a lo largo del ciclo de vida del proceso.
Es importante destacar que no es necesario que todos estos controles estén integrados en el propio modelo de base subyacente al que muchas organizaciones no tendrán acceso. Algunos pueden ser superposiciones creadas en el entorno local, como es el caso de un chatbot habilitado con inteligencia artificial IAGen, diseñado por un departamento de recursos humanos para responder a las consultas de los empleados sobre los beneficios. En ese caso de uso, a lo largo del ciclo de vida de una consulta, una vez que un usuario hace una pregunta pueden ocurrir muchas mitigaciones posibles. Entre ellas, se incluyen hacer que el chatbot haga preguntas aclaratorias para generar entradas de usuario adicionales necesarias, hacer que el usuario confirme que el chatbot ha entendido correctamente la consulta, limitar los tipos de conjuntos de datos a los que este puede acceder, por ejemplo, al excluir información personal, y diseñar el chatbot para que proporcione citas para explicar sus respuestas, y permitir la verificación de datos de sus respuestas.
Implementación responsable de la IAGen
Establecer la gobernanza adecuada es un paso necesario, pero no suficiente para impulsar la adopción responsable de casos de uso de IAGen a gran escala. Como se menciona en la sección anterior, incorporar la responsabilidad por diseño en el proceso de desarrollo es esencial para una implementación adecuada de la tecnología.
Hay cuatro roles críticos necesarios para una implementación exitosa en todos los casos de uso, donde las responsabilidades de estos roles están estrechamente vinculadas con el talento y las acciones esperadas para impulsar dichos casos:
Diseñadores. Los diseñadores, o gerentes de producto, orientan la dirección de la implementación de la IAGen al identificar nuevos casos de uso con conocimiento de cómo encajan en la estrategia de la organización. Por lo general, son miembros de esta, y tienen funciones asociadas a la convicción de que la IAGen puede tener un impacto significativo. Deben ser responsables de identificar y mitigar los riesgos relevantes, y tendrán un papel importante al impulsar los cambios culturales necesarios para adoptar la IAGen, que incluye la creación de confianza en la proposición de que el valor educativo se pueda lograr de manera responsable y segura para todos los procesos de enseñanza y aprendizaje.
Ingenieros en sistemas. Los ingenieros son expertos técnicos que entienden la mecánica de la IAGen. Desarrollan o personalizan la tecnología para respaldar sus casos de uso. Además, es igualmente importante que sean responsables de orientar sobre la viabilidad técnica de las iniciativas y de codificar las mitigaciones para limitar el riesgo, así como para desarrollar estrategias de monitoreo sistemáticas.
Formadores. Conforman los equipos que ayudan a establecer los procesos y las capacidades necesarios para impulsar prácticas de implementación responsables y seguras para la IAGen. Esto incluye establecer los marcos de riesgo centrales, las barreras de seguridad y los principios para guiar el trabajo de los diseñadores e ingenieros, y desafiar la evaluación de riesgos y la efectividad de la mitigación, especialmente para casos de uso de mayor riesgo. El responsable de formación deberá complementar la importancia de su rol entre otros miembros de la organización, dada la variedad de riesgos potenciales. Idealmente, cubrirá riesgo de datos, privacidad de datos, ciberseguridad, cumplimiento normativo y riesgo tecnológico. Dada la naciente IAGen, los responsables a menudo necesitarán coordinarse con los ingenieros para efectuar pruebas de casos de uso emergentes para identificar y mitigar los desafíos potenciales.
Usuarios. Son los beneficiarios finales de las herramientas o casos de uso de IAGen. Deberán ser capacitados en la dinámica y los riesgos potenciales de la tecnología, incluido su rol en el uso responsable. También desempeñan un papel crítico para ayudar a identificar los riesgos de los casos de uso, ya que pueden experimentar problemas en los resultados de sus interacciones con el modelo de IAGen elegido. Un modelo operativo debe tener en cuenta cómo interactuarán las diferentes personas en las diferentes etapas del ciclo de vida de la IAGen. Habrá variaciones naturales para cada organización, que dependerán de las capacidades específicas incorporadas en cada una de las personas. Es decir, algunas organizaciones tendrán más capacidades técnicas en diseñadores, lo que significa que pueden tener un rol de entrega más activo, pero la intención del modelo operativo es mostrar cómo varía el compromiso en cada etapa de implementación.
La IAGen tiene el potencial de redefinir cómo trabajan las personas. Si bien la tecnología se está desarrollando rápidamente, contiene riesgos que van desde preocupaciones sobre la integridad de los datos de entrenamiento hasta el potencial de generar resultados inexactos o maliciosos.
Los líderes del proceso deben revisar sus lineamientos e impulsar la integración de una gestión de riesgos eficaz desde el comienzo de su compromiso con la IAGen. Esto permitirá la aplicación de esta nueva y emocionante tecnología de una manera segura y responsable, la cual ayudará a las empresas a gestionar los riesgos conocidos mientras desarrollan las habilidades para adaptarse a los riesgos imprevistos a medida que se expanden las capacidades y los casos de uso de la tecnología. Con un gran potencial de aumento de la productividad en juego, trabajar para escalar la IA de manera sostenible y responsable es esencial para aprovechar todos sus beneficios.
Resultados y aportes
En función de que la utilización de la IAGen no puede detenerse dado su continuo avance global, es necesario elaborar protocolos de uso que sean difundidos y comprendidos por todo el universo con el cual se trabaje. A continuación, se comparten algunas sugerencias para tener presentes a la hora de la implementación (Singla et al., 2024).
1. Transparencia y declaración de uso
En muchos casos, se requiere que los estudiantes declaren explícitamente si han utilizado herramientas de IA generativa en su investigación, redacción o análisis. Esto se hace para asegurar la transparencia y la honestidad académica.
En algunos casos, se sugiere detallar en qué parte del trabajo se utilizó la IAGen, por ejemplo, para ayudar en la redacción de un apartado específico o para generar ideas preliminares.
2. Autoría y originalidad
En el caso de los trabajos de posgrado, se requiere un nivel alto de originalidad y contribución personal. Utilizar la IAGen sin reconocerlo puede considerarse una forma de plagio, si se presenta como trabajo propio lo que ha sido generado en su totalidad o en gran parte por una IAGen. Algunos programas académicos recomiendan que la IA se utilice solo como herramienta de apoyo, y no para generar el contenido principal o las ideas originales del trabajo.
3. Ética en la investigación
El uso de IAGen también puede ser evaluado desde una perspectiva ética. Dependiendo del campo de estudio, puede ser crucial evaluar si la IA generativa introduce sesgos, errores o influye en el rigor metodológico del trabajo. En estudios que involucran temas sensibles o sujetos humanos, el uso de esta herramienta debe ser manejado con cuidado para evitar manipulaciones no intencionadas.
4. Uso limitado en ciertos tipos de investigación
Algunos centros educativos podrían limitar el uso de IAGen en investigaciones empíricas o científicas, donde el análisis de datos, los cálculos y las interpretaciones deben ser hechas directamente por el estudiante o investigador. En áreas como la escritura creativa, la filosofía o los estudios literarios, es posible que haya más flexibilidad en el uso de esta, siempre y cuando se declare.
5. Apoyo en la escritura
En ciertos casos, el uso de la IAGen como herramienta para mejorar el estilo de redacción, la corrección gramatical o la estructuración de ideas puede estar permitido, siempre que se reconozca. Los programas de posgrado pueden permitirlo para ayudar a la redacción, siempre que el contenido principal referido a ideas, hipótesis y análisis críticos sean producto del trabajo del estudiante.
6. Herramientas de detección de la IAGen
Al igual que con los programas de detección de plagio, algunas instituciones pueden implementar o recomendar el uso de herramientas que detecten contenido generado por la IAGen para asegurar que los estudiantes no están delegando su trabajo.
7. Automatización inteligente de procesos
Los procesos con grandes volúmenes de documentos y datos requieren de automatización que consista en aplicar tecnología para hacerlos más eficientes y reducir al máximo costos, tiempo y errores. A su vez, se reducen tareas de bajo valor agregado relacionadas con la clasificación de documentos y la extracción de datos. Cualquier investigación con procesos complejos y grandes volúmenes de documentos es susceptible de utilizar este tipo de servicio.
El ecosistema educativo puede ser acelerador en materia de innovación, y alentar la confianza en las nuevas tecnologías como una oportunidad para ser más competitivos e innovativos, reducir costos operativos o relacionarse mejor con sus contextos. Una mentalidad que prioriza la innovación y promueve la mejora continua frente a una mentalidad complaciente va a ser, sin lugar a duda, la elegida por las nuevas generaciones alineadas con la urgencia en la resolución de temas emergentes, siempre cambiantes y demandantes.
Siguiendo a Bevan (2024), los proveedores de proyectos muchas veces son los que cometen errores, al prometer fechas imposibles, exagerar las capacidades de una tecnología o al ser incapaces de mostrar pruebas de concepto que generen confianza para el lanzamiento de un programa nuevo.
En cuanto a las organizaciones, por un lado, algunos de los errores que se cometen con frecuencia consisten en hacer las cosas a medias, sin establecer recursos, objetivos concretos o un calendario ágil. Existen infinidad de proveedores especializados en temas concretos de IA que llevan años trabajando en el tema, pero algunos procesos de contratación son lentos y complicados, lo que desalienta la implementación y deja la percepción de que es muy complicado avanzar con el proyecto.
Por otro lado, definir los indicadores clave de desempeño para ver los avances del proyecto debe hacerse antes de comenzar, y difundir los logros es algo que da confianza ante el proceso de transición que necesariamente está asociado a este tipo de avances en la gestión educativa.
Es necesario enfocarse en cuáles son las demandas para las que un profesional formado debiera dar respuesta. Si nos preguntásemos, por ejemplo, cómo pueden las empresas actuar con rapidez para captar el valor potencial que se destaca en este informe, al tiempo que gestionan los riesgos que presenta la IAGen; cómo transformará la combinación de ocupaciones y habilidades necesarias en su fuerza laboral en los próximos años, tanto debido a la IAGen como a otras formas de inteligencia artificial; cómo influirán estas transiciones en sus planes de contratación, programas de capacitación y otros aspectos relacionados con de los recursos humanos.
Otro tema importante para destacar sería garantizar que la tecnología no se implemente en casos riesgosos que podrían dañar a la sociedad. En síntesis, planificar con mirada prospectiva el desempeño organizacional y profesional en un futuro ya cercano es uno de los principales cuestionamientos para elaborar una currícula actualizada y eficaz.
Conclusiones
La innovación tecnológica puede inspirar asombro y preocupación, parece materializarse completamente y se generaliza con mucha rapidez. La llegada de la IAGen en 2022 fue el ejemplo más reciente de este fenómeno, debido a su adopción masiva inesperada, así como el impulso de empresas y consumidores por implementarla, integrarla y jugar con ella.
Las herramientas de IAGen de acceso público, con el lanzamiento de versiones iterativas, superan la velocidad de adaptación de los marcos regulatorios nacionales. La falta de regulaciones nacionales sobre esta en la mayoría de los países deja en peligro la privacidad de los datos de los usuarios y a las instituciones educativas, sin conocimientos suficientes para validar las herramientas.
Estamos al comienzo de un recorrido para comprender el poder, el alcance y las capacidades de esta tecnología. En los próximos años, seguramente, el camino de innovaciones y avances tecnológicos nos obligará a recalibrar la comprensión de su impacto en los escenarios habituales de educación.
Es importante comprender adecuadamente este fenómeno y anticipar su impacto. Dada la velocidad de implementación de la IAGen hasta ahora, la necesidad de acelerar la transformación digital y de recapacitar a las fuerzas laborales es grande.
Estas herramientas tienen el potencial de crear un valor enorme para la economía global en un momento en el que se están ponderando los importantes costos de adaptación y mitigación del cambio climático.
Al mismo tiempo, estas nuevas tecnologías también poseen el potencial de ser más desestabilizadoras que las de generaciones anteriores de inteligencia artificial, dado que pueden presentar más habilidades comparables a la intervención humana, y desarrollan un lenguaje fundamental en la mayoría de las actividades laborales vinculadas a la experiencia y el conocimiento.
Esperamos que esta investigación haya contribuido a una mejor comprensión de la capacidad de esta herramienta para agregar valor a la formación y, en consecuencia, a la participación en las actividades organizacionales. Sería ideal poder impulsar el crecimiento económico y la prosperidad con el potencial para transformar significativamente la educación, el trabajo y la sociedad que subyace en la IAGen bien implementada.
Quedan muchos interrogantes, temores y falta de conocimiento de las consecuencias de su implementación, sin embargo, estos factores no pueden ser limitantes para avanzar con la IAGen, cuestión que hoy está siendo un tema transversal a las distintas actividades humanas.
Para que la IAGen sea confiable para las personas a nivel Individual e institucional, el enfoque centrado en el ser humano debe concretarse en relación con las características específicas de las tecnologías elegidas e implementadas, para lograr que sea apreciada por estudiantes, docentes e investigadores y les sea de utilidad para optimizar sus trabajos.
Desde un enfoque humanístico, las herramientas de la IAGen deberían diseñarse con el fin de incrementar las capacidades intelectuales y las habilidades sociales y profesionales, no interponerse entre ellas. Se espera que dichas herramientas puedan integrarse como parte de los recursos disponibles para optimizar el análisis, la comunicación y el desempeño en general, de forma más sustentable e inclusiva.
Aunque esta herramienta debe utilizarse en la educación y la investigación, es necesario tener presente que su influencia en los procesos y sistemas vigentes podría transformar lo conocido, por lo cual su incorporación debería ser rigurosamente supervisada de manera sistemática, solo así se podrá asegurar la mejora de la calidad formativa orientada a un futuro más eficiente y eficaz para todos.
Referencias bibliográficas
Ahmed, S., Alshater, M. M., El Ammari, A., y Hammami, H. (2022). Artificial intelligence and machine learning in fi- nance: A bibliometric review. Research in International Business and Finance, 61. https://doi.org/10.1016/j.ribaf.2022.101646
Bevan, O. (2024). Implementing generative AI with speed and safety. McKinsey & Company.
García-Vera, Y. S., Juca-Maldonado, F. X. y Torres-Gallegos, V. (2023). Automatización de procesos contables mediante Inteligencia Artificial: Oportunidades y desafíos para pequeños empresarios ecuatorianos. Revista Transdisciplinaria de Estudios Sociales y Tecnológicos, 3(3), 68-74. https://doi.org/10.58594/rtest.v3i3.93
International Federation of Accountants [IFAC]. (2022). Exploring the IESBA Code, a Focus on Technology: Artificial Intelligence. https://www.ifac.org/knowledge-gateway/ethics/publications/exploring-iesba-code-focus-technology-artificial-intelligence
Singla, A., Sukharevsky, A., Yee, L., Chui, M. y Hall, B. (2024). El estado de la IA a principios de 2024: la adopción de la IA generativa aumenta y comienza a generar valor. QuantumBlack; AI by McKinsey; McKinsey Digital McKinsey. https://www.mckinsey.com/locations/south-america/latam/hispanoamerica-en-potencia/el-estado-de-la-ia-a-principios-de-2024-la-adopcion-de-la-ia-generativa-aumenta-y-comienza-a-generar-valor/es-CL
Bibliografía consultada
Anders, G. (9 de septiembre de 2024). What accountants need to know about AI regulation. In the black. https://intheblack.cpaaustralia.com.au/technical-skills/what-accountants-need-know-about-ai-regulation
Banco de Desarrollo de América Latina y el Caribe [CAF]. (2021). Experiencia. Datos e Inteligencia Artificial en el sector público. https://scioteca.caf.com/handle/123456789/1793
Cappelli, P. y Rogovsky, N. G. (2023). Artificial intelligence in human resource management: a challenge for the human-centred agenda? (ILO Working Paper, N.° 95). International Labour Organization. https://doi.org/10.54394/OHVV4382
Chávez Pullas, M. A. y Herrera Estrella, M. (2018). Aplicación de las NIIF en Ecuador desde la perspectiva contable positiva. Universidad Politécnica Salesiana.
Chui, M. (2023). The economic potential of generative AI: The next productivity frontier. McKinsey & Company.
Gov.UK. (1-2 de noviembre de 2023). The Bletchley Declaration by Countries Attending the AI Safety Summit. Policy paper. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Johnson, C. (Anfitrión). (2024). Generative AI in operations: Capturing the value. [Episodio de Podcast]. En McKinsey Talks Operations. https://www.mckinsey.com/capabilities/operations/our-insights/generative-ai-in-operations-capturing-the-value
Ley 2024/1689 de 2024. Ley de Inteligencia Artificial (Reglamento UE). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial. 13 de junio de 2024. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689
Marwala, T. (23 de julio de 2023). Algorithm Bias-Synthetic Data Should Be Option of Last Resort When Training AI Systems. United Nation University. https://unu.edu/article/algorithm-bias-synthetic-data-should-be-option-last-resort-when-training-ai-systems
Privyk, M. J. y Wray, D (15 de julio de 202). Four ways to connect sustainability and financial information. ICAEW.
Thomson Reuters. (24 de julio de 2024). Tax & accounting firms optimistic about GenAI, planning and adoption come next. https://www.thomsonreuters.com/en-us/posts/technology/genai-tax-firms-2024/
Thomson Reuters. (24 de septiembre de 2024). How is GenAI reshaping the auditor’s skill set? https://tax.thomsonreuters.com/blog/how-is-genai-reshaping-the-auditors-skill-set/
Vinuesa, R., Azimpour, H., Leite, I., Balaam, M., Dignum, V., Domisch, S., Felländer, A., Langhans, S. D., Tegmark, M. y Fuso Nerini, F. (2020). The role of artificial intelligence in achieving the Sustainable Development Goals. Nature Communications, 11(233). https://doi.org/10.1038/s41467-019-14108-y
1 Facultad de Ciencias Económicas, Universidad de Buenos Aires. Contacto: gscavone@gmail.com
RInCE – Vol. 15 N°30 diciembre 2024 – Análisis del posible uso de la inteligencia artificial generativa en procesos formativos
ISSN 1851-3239 - http://rince.unlam.edu.ar
DOI: https://doi.org/10.54789/rince.30.6