La inteligencia artificial y la construcción de saberes: ¿disrupción o potenciación?
tecnologia

La inteligencia artificial y la construcción de saberes: ¿disrupción o potenciación?

La propaganda y publicidad actuales que venden los beneficios de los modelos de Inteligencia Artificial (IA) son tan extendidos, insistentes e invasivos que han colocado a la gente ante una opción única: arrodillarse ante ellas; incorporarlas con fascinación. Parecería que las IAs representan la panacea a los innúmeros retos, problemas y deficiencias que las gestiones sociales y las necesidades humanas enfrentan en actividades tan vastas como producir y gestionar procesos, todos dependientes del acceso y “clasificación” de los conocimientos. La humanidad demostró ser proclive a fascinarse ante las aplicaciones tecnológicas de los conocimientos adquiridos. Incluso irracionalmente y sin reservas, pese al empirismo sobre el que los erige. Las revoluciones industriales modernas, hijas del racionalismo e iluminismo, postularon que las tecnologías contribuirían a la felicidad humana, pulverizando el idealismo tecnológico del Art and Crafts inglés y el romanticismo literario alemán. Ambos coincidieron en exaltar el valor de las artesanías del pasado —como preconizó William Morris— y el amor exaltado que en “Las tribulaciones del joven Werther” expuso Johann Wolfgang von Goethe. Colonizadas, las naciones y economías en vías hacia el subdesarrollo carecen de edificios tecnológicos propios, de “arquetipos” gnoseológicos y del instrumental y capacidades para desarrollar y construir saberes de manera consistente, eficiente e independiente. Dependen, en el saber, de los monopolios gnoseológicos, importándolo desde sus fuentes generatrices. Cuando lo incorporan, ya se han devaluado en sus puntos de origen, perdido vigencia, quedando como subproductos. Al incorporarlo, robustecen el modo híper eficiente de garantizar su postrimería. Ante tal situación, aumentan los científicos que se abocan al estudio de la relación de las IAs y el conocimiento, lo cual, naturalmente, involucra los procesos de producción de saberes. Al respecto, MJ Crockett y Cols afirman haber examinado los “Sustitutos de IA”, como se denominan los sistemas de IA diseñados para emular o reemplazar funciones tradicionalmente realizadas por humanos, sean emocionales, de duelo o de servicios profesionales que incluyen tutorías, asesorías y acompañamiento en cualquier área, junto a otros. Afirman que algunos científicos creen poder “mejorar la generalización de la ciencia cognitiva, primero…, superando la dependencia excesiva del campo de muestra occidental”, considerado rico, educado, industrializado y democrático —WEIRD—. También creen que permite a los investigadores explorar rápida y económicamente “vastos espacios de diseño experimental, expandiendo la diversidad de situaciones que pueden probarse experimentalmente”. Ante esas apologías, se propusieron mostrar “cómo esta lógica es defectuosa”. Para ellos, los sustitutos de IA “no pueden representar fielmente poblaciones diversas y se limitan a simular procesos cognitivos que están descontextualizados, diseñados, anonimizados y desencarnados, situación que denominan con el sugerente acrónimo DEAD, que más ilustrativo no puede ser. Por el procedimiento y método utilizado por esos científicos, afirman, ellos solo recopilan datos humanos para experimentos que sobrevivan a las pruebas piloto con sustitutos de IA, “limitando al estudio de la cognición inactiva”. ¿El riesgo? “Los sustitutos de IA corren el riesgo de consolidar la ilusión de generalización, donde los científicos creen que sus hallazgos son más generalizables de lo que realmente son”. Al respecto, empiezan a abundar las cartas y ensayos publicados en “Tendencias en las ciencias cognitivas” (Cell Press).

← Volver a noticias