9 minutos

Los avances que llegan con la implementación de la inteligencia artificial pueden impactar en aspectos psicológicos y cognitivos, tanto en el ámbito académico como en la vida diaria. La premisa de que la inteligencia artificial crea dependencia debiera impulsarnos a explorar las posibles consecuencias en torno al pensamiento crítico, las capacidades cognitivas, y en la propia autoconfianza. ¿Cómo romper la delgada línea entre aprovechar las ventajas del recurso sin desdibujar el impulso de creación, la chispa de la permeabilidad humana en el producto final? Todo un desafío.

La inteligencia artificial (IA) está a la orden del día, es parte de la cotidianidad y se utiliza en los distintos grupos etarios, en empresas e instituciones. Pareciera que ningún entorno escapa de ella. Con el tiempo se han evidenciado sus beneficios y también aspectos que deben ser evaluados y regulados, como el excesivo uso de las herramientas de inteligencia artificial generativa (IAGen).

MODELOS PARA LA GENERACIÓN DE CONTENIDOS

De acuerdo con la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la IAGen es una tecnología de IA que genera contenidos según las instrucciones que recibe; se entrena con la información de páginas web y redes sociales pero no puede crear nuevas ideas. Entre las herramientas más conocidas de IAGen se halla ChatGPT, una aplicación que fue dada a conocer en 2022 por Open AI (empresa estadounidense de investigación en IA), cuya versión más reciente es GPT-4o.

Recientemente se lanzó DeepSeek, un chatbot creado en China por una empresa con el mismo nombre que compite directamente con ChatGPT y, posteriormente, el empresario Elon Musk presentó el sistema Grok 3, desarrollado por su compañía xAI.

El uso de estas herramientas similares ha desembocado en un aprovechamiento para la mejora de distintos procesos, incluyendo el desarrollo y análisis de textos, creación de imágenes y soluciones de problemas, tanto académicos como cotidianos, pero a la vez ha generado una polémica en cuanto al marco ético y los efectos que puede tener en aspectos cognitivos, en la toma de decisiones y en la creación de conductas dependientes o adictivas.

ASISTENTE VIRTUAL EN LA COTIDIANIDAD

La IA no solo se ha popularizado en ámbitos académicos, desde los colegios hasta las universidades, sino que sus aplicaciones se extienden a consultas de rutina. El uso de buscadores de Internet en algunos casos se ha sustituido por diálogos con los chatbots, específicamente en el caso de ChatGPT, un modelo que con su formato conversacional y explicaciones detalladas, se ha convertido en un “asistente virtual”. Su popularidad, rápida respuesta y adaptabilidad a los usuarios genera cada vez más confianza en su uso.

En algunos casos, pareciera que las personas están perdiendo el deseo de generar contenido propio y la facilidad de la herramienta permite desde solicitar lluvias de ideas, hasta elaborar esquemas de trabajo y presentaciones, formatos básicos para correos electrónicos, resúmenes de textos en distintas presentaciones (incluyendo cuadros comparativos), traducciones, revisión y corrección de ideas, estilos y gramática, entre otros requerimientos.

En algunos casos, pareciera que las personas están perdiendo el deseo de generar contenido propio.

Si bien con la IA se puede ahorrar tiempo y avanzar con mayor rapidez en este tipo de tareas, ¿por qué descartar de un todo la investigación tradicional y la de buscadores en Internet? ¿Cuánta confianza ha generado la IA generativa para que se le suministre contenido original con el fin de corregir y evaluar? ¿Se aceptan las respuestas de los modelos y algoritmos por encima de la experticia de personas calificadas para generar una versión final?

IMPACTO EN EL ÁMBITO PERSONAL Y ACADÉMICO

Una investigación publicada en la revista Nature por Zayed Ahmad y un equipo de expertos de varios países, en la que participaron 285 estudiantes universitarios de Pakistán y China, concluyó que la utilización de inteligencia artificial desencadenó una falta de esfuerzo para la resolución de problemas, lo que se conoce como descarga cognitiva1 en un 68.9%, un 68.6% de inconvenientes en cuanto a la privacidad y seguridad, y un 27.7% en la pérdida de capacidad para la toma de decisiones, con lo que se recomendó implementar medidas preventivas para su integración en la educación. Adicionalmente, se demostró que se ha incrementado el hecho de adoptar y depender de la IA en el sector educativo, en parte por la facilidad de automatizar los trabajos o actividades realizadas.

El hecho de que la herramienta contribuya en la toma de decisiones rutinarias, en ocasiones desencadena una confianza excesiva y la disminución del pensamiento crítico.

En un artículo publicado en la revista International Journal of Educational Technology in Higher Education, se analizaron datos del uso de ChatGPT en estudiantes universitarios de Seúl, Corea del Sur, para explorar las relaciones entre autoeficacia académica2, el estrés académico y las expectativas en el desempeño. El estudio concluyó que, si bien la dependencia de la IA no se asoció con la autoeficacia académica, sí se vinculó al estrés académico y a las expectativas en cuanto al desempeño. El uso de la herramienta evidenció igualmente una descarga cognitiva, desinformación, menores capacidades creativas y la reducción del pensamiento crítico e independiente. En esta investigación, el impacto negativo de la IA se manifestó de acuerdo con condiciones preexistentes en las personas evaluadas.

INTERACCIONES QUE FAVORECEN LA SATISFACCIÓN DE LOS USUARIOS

Los resultados de las búsquedas realizadas con la IAGen se hacen más atractivos que las de otras herramientas de investigación, en parte por la característica de complacencia que ofrece el formato de diálogo, en el que los usuarios mantienen interacciones que por lo general les propician una sensación de satisfacción y los invitan indirectamente a prolongar la experiencia. Adicionalmente, el diálogo servil o complaciente, un término conocido en inglés como “sycophancy”, brinda en algunos casos respuestas sesgadas a las consultas, de acuerdo con un estudio publicado por la Universidad de Cornell.
En el caso de ChatGPT, la generación de soluciones instantáneas y personalizadas, sumada a la antropomorfización como consecuencia de los diálogos que logran emular una conversación humana, pueden desencadenar también interacciones adictivas. En el día a día, es posible que se presenten situaciones que escapen del control de las personas; el hecho de que la herramienta contribuya en la toma de decisiones rutinarias en ocasiones desencadena una confianza excesiva y la disminución del pensamiento crítico, por la comodidad que ofrece la gratificación inmediata de tener respuestas sin tardanzas.La individualidad se diluye entre los algoritmos.

¿PÉRDIDA DE LA CAPACIDAD DE PENSAR?

En un mundo en el que las respuestas y soluciones están a la distancia de un clic, o de comandos de voz, aun para quienes defienden las posturas éticas podría parecer tentador solucionar situaciones o desafíos con el uso de la IA. Sin embargo, no se puede ignorar que los modelos solo recopilan y reorganizan información existente pero no generan ideas propias, tal como afirmó Steve Wozniak, cofundador de Apple en una conferencia organizada en Estados Unidos. La estandarización podría ser una de las consecuencias de las soluciones que brinda la IA.

Por su parte, el doctor Umberto León Domínguez, investigador en la Escuela de Psicología de la Universidad de Monterrey (UDEM), realizó un estudio para explorar las hipótesis en torno a lo que podría suceder a futuro con el desarrollo cognitivo y el uso de los modelos de IA, tomando como base el concepto de descarga cognitiva. En un primer escenario, las tecnologías no harían grandes aportes al desarrollo cognitivo y se dejarían de utilizar con el paso del tiempo; en el segundo los chatbots ayudarían a optimizar procesos para que los usuarios enfoquen sus esfuerzos cognitivos en los procesos en los que la IA no pueda intervenir; y en un tercero, plantea la despersonalización del ser humano, con la anticipación de las tecnologías y toma de decisiones ante los problemas que puedan surgir.

Si bien hoy en día algunas personas toman la dependencia a la tecnología con sentido del humor, es importante tener en cuenta que sus funciones son de asistencia, y descartar en gran medida la idea de la antropomorfización para evitar escenarios pesimistas a futuro.

PROSPECTIVAS: UN PUÑADO DE PREGUNTAS EN DANZA

La premisa de que la inteligencia artificial crea dependencia debiera impulsarnos a explorar las posibles consecuencias en torno al pensamiento crítico, las capacidades cognitivas, y en la propia autoconfianza. ¿Cómo romper la delgada línea entre el aprovechamiento de las ventajas del recurso sin caer en desdibujar el impulso de creación, la chispa de la permeabilidad humana en el producto final?

Aunque existen temores generalizados con el uso de nuevas tecnologías, no necesariamente su existencia tendría que implicar un rechazo.

No caben dudas de que los resultados de la inteligencia artificial generativa pueden ser tentadores en la automatización de tareas y procesos. Sin embargo, ¿en qué momento se perdió el deseo de que las creaciones reflejen la propia esencia? ¿Es tal la adicción a la productividad desmedida? ¿Qué consecuencias podría traer la sistematización y la estandarización de contenidos? ¿Dónde queda el derecho de autor? Aunque existen temores generalizados con el uso de nuevas tecnologías, no necesariamente su existencia tendría que implicar rechazo; sin embargo, es importante garantizar que la posibilidad de tener casi todas las respuestas de inmediato(aún más que cuando se hace una búsqueda en Google) no sustituya los procesos cognitivos para el desarrollo y la resolución de problemas, ni la esencia intrínseca humana de cada proceso creativo. 

Fuentes

Ahmad, S.F., Han, H., Alam, M.M. et al.Impact of artificial intelligence on human loss in decision making, laziness and safety in education. HumanitSocSciCommun10, 311 (2023). https://doi.org/10.1057/s41599-023-01787-8

Miao, Fengchun;Holmes, Wayne.Guía para el uso de IA generativa en educación e investigación. UNESCO, 2024.

https://unesdoc.unesco.org/ark:/48223/pf0000389227

Sharma Mrinank; Tong Meg et al. Towards Understanding Sycophancy in Language Models (October, 2023). Cornell University.
https://doi.org/10.48550/arXiv.2310.13548
Todo Noticias. La dura crítica del cofundador de Apple contra la IA: “No piensa, propaga fakenews y facilita estafas” (2025, 28 de febrero).
https://tn.com.ar/tecno/novedades/2025/02/28/la-dura-critica-del-cofundador-de-apple-contra-la-ia-no-piensa-propaga-fake-news-y-facilita-estafas/

Universidad de Monterrey. Inteligencia artificial y descarga cognitiva: ¿Hacia dónde nos lleva el futuro?https://investigacion.udem.edu.mx/inteligencia-artificial-y-descarga-cognitiva-hacia-donde-nos-lleva-el-futuro/
Yankouskaya, Ala;Liebherr, Magnus;  Ali, Raian. Can ChatGPT Be Addictive? A Call to Examine the Shift from Support to Dependence in AI Conversational Large Language Models. Human-Centric Intelligent Systems (September 01, 2024).
http://dx.doi.org/10.2139/ssrn.4972612 Zhang et al. Do you have AI dependency? The roles of academic self-efficacy, academic stress, and performance expectations on problematic AI usage behavior. International Journal of Educational Technology in Higher Education (2024).
https://doi.org/10.1186/s41239-024-00467-0

María Carolina Sánchez es comunicadora social de la Universidad Católica Andrés Bello (Caracas, Venezuela), con especialización en Periodismo Digital de la Universidad Monteávila (Caracas, Venezuela) y diplomada en Psicología Positiva de la Universidad Metropolitana (Caracas, Venezuela). Actualmente se desempeña en la gestión de la reputación digital de marcas comerciales, específicamente en la moderación de redes sociales. Es, además, periodista médica por la Sociedad Argentina de Periodismo Médico (SAPEM), de la Asociación Médica Argentina (AMA).

CREATIVIDAD, PENSAMIENTO CRÍTICO Y HABILIDADES COGNITIVAS EN LA ERA DE LA INTELIGENCIA ARTIFICIAL GENERATIVA

1 / 4

Según el artículo, ¿qué característica del formato conversacional de los chatbots favorece la complacencia del usuario?

2 / 4

¿Cuál fue uno de los escenarios futuros posibles planteados por el Dr. Umberto León Domínguez respecto al desarrollo cognitivo y la IA?

3 / 4

¿Cuál de las siguientes consecuencias se asoció al uso excesivo de inteligencia artificial en estudiantes universitarios según estudios mencionados?

4 / 4

Según un estudio publicado en Nature, ¿qué porcentaje de estudiantes experimentó descarga cognitiva por el uso de inteligencia artificial?

Tu puntación es

La puntuación media es 67%

0%

  1. De acuerdo con una investigación de Michael Gerlich relacionada con herramientas digitales y el pensamiento crítico, la descarga cognitiva, como describieron Risko y Gilbert, implica el uso de herramientas externas para reducir la carga cognitiva en la memoria de trabajo de un individuo. Si bien esto puede liberar recursos cognitivos, también puede conducir a una disminución de la participación cognitiva y el desarrollo de habilidades. ↩︎
  2. La autoeficacia es un concepto introducido por el psicólogo canadiense Albert Bandura (1925 – 2021). En 1977 publicó la Teoría del Aprendizaje Social, donde aborda la regulación de la motivación y la acción humana, que implica tres tipos de expectativas: las expectativas de situación-resultado, las expectativas de acción-resultado y la autoeficacia percibida.
    En general, puede definirse la autoeficacia como los juicios que cada persona hace sobre sus capacidades, sobre la base de los cuales organizará y ejecutará sus actos de modo que le permitan alcanzar el rendimiento deseado; o como las creencias que tiene la persona sobre sus capacidades para organizar y ejecutar caminos para la acción requeridos en situaciones esperadas o basadas en niveles de rendimiento. ↩︎