SciELO - Scientific Electronic Library Online

 
vol.25 issue1Importance of Professional Practices in the Education of Future EngineersCo-creation in the Generation of Future Knowledge through a Virtual Learning Community. Case Study: Public Accounting and Business Administration Distance Learning Programs author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Services on Demand

Journal

Article

Indicators

Related links

  • On index processCited by Google
  • Have no similar articlesSimilars in SciELO
  • On index processSimilars in Google

Share


El Ágora U.S.B.

Print version ISSN 1657-8031

Ágora U.S.B. vol.25 no.1 Medellin Jan./June 2025  Epub Aug 01, 2024

https://doi.org/10.21500/16578031.7017 

Artículo de Investigación

Transformaciones en los derechos de cuarta generación a partir de la integración de la IA en la sociedad: revisión sistemática según las directrices PRISMA

Transformations in Fourth Generation Rights from the Integration of AI in Society: Systematic Review under the PRISMA Guidelines

Vianney Rocio Díaz Pérez1 
http://orcid.org/0000-0002-8999-0586

Hernando Barrios Tao2 
http://orcid.org/0000-0002-6805-1045

1Docente investigadora de la Universidad Militar Nueva Granada. Contacto: vianney.diaz@unimilitar.edu.co

2Docente investigador de la Universidad Militar Nueva Granada. Contacto: hernando.barrios@unimilitar.edu.co


Resumen.

La integración de la Inteligencia Artificial (IA) en la sociedad plantea reflexiones sobre su impacto en diversas áreas, desde lo cultural hasta lo jurídico. La IA, parte de la cuarta revolución industrial, promete mejoras en la salud, agricultura y mitigación del daño climático. Sin embargo, su despliegue suscita preocupaciones sobre la privacidad, la toma de decisiones y el acceso equitativo a la tecnología. En el ámbito legal, el uso de IA en servicios jurídicos genera debate sobre la confianza en los sistemas legales. Es crucial establecer regulaciones y políticas que garanticen el uso ético y responsable de la IA para proteger los derechos humanos emergentes.

Palabras claves: Derechos de cuarta generación; Inteligencia Artificial; PRISMA; relaciones intersudopersonales.

Abstract.

The integration of Artificial Intelligence (AI) into society raises reflections on its impact on various areas, from cultural to legal. AI, part of the fourth industrial revolution, promises improvements in health, agriculture, and climate damage mitigation. However, its deployment raises concern about privacy, decision-making, and equitable access to technology. In the legal arena, the use of AI in legal services generates debate about trust in legal systems. It is crucial to establish regulations and policies that ensure the ethical and responsible use of AI to protect emerging human rights.

Keyword: Fourth Generation Rights; Artificial Intelligence (AI); PRISMA; Interpersonal Relationships

Introducción

El auge de la Inteligencia Artificial (IA) y su integración a la sociedad trae reflexiones sociales sobre el impacto de esta tecnología en la forma en que se dan las relaciones humanas, en aspectos que abarcan lo cultural, lo educativo, lo comportamental y lo jurídico (Vidovic, 2021), siendo en este último ámbito donde se cuestiona la creación de una IA responsable y autorregulada que no atente contra el digno ejercicio de los derechos humanos (DD. HH.).

Para iniciar, la Inteligencia Artificial (IA) hace referencia a aquella tecnología disruptiva que hace parte de la cuarta revolución industrial o del mundo 4.0, donde la combinación de los sistemas digitales con los físicos es prioridad para mejorar la calidad de vida del ser humano en la Tierra, a través de la cual, se espera, se mejore la atención en salud -gracias a diagnósticos más precisos que disminuyan el desarrollo de enfermedades-, se aumente la eficiencia de procesos agrícolas y se mitigue el daño climático a través del desarrollo de procesos de producción más eficientes (Comisión Europea, 2020).

Con tantas esperanzas depositadas en esta tecnología, es fundamental comprender qué es la Inteligencia Artificial y cómo impacta en la humanidad. Si bien uno de los padres de la inteligencia artificial, Alan Turing, no definió la inteligencia desde un punto de vista teórico (González, 2007/Falta), dio los elementos necesarios para considerar cómo una máquina puede ser considerada “inteligente” al manifestar sus cualidades y al diseñar el modelo de imitación para comprobarlo. Así las cosas, la inteligencia haría referencia a “la capacidad de una máquina de llevar a cabo actividades mentales de forma parecida a como lo haría un ser humano” (Flantrmsky y Flantrmsky, 2020, párr. 8).

En este sentido, la inteligencia artificial (IA) se refiere a “la disciplina científica y tecnológica que tiene como fin modelar los procesos de la mente y su conexión con el cuerpo a través de la metáfora computacional” (García, 2017). Esto ha hecho que la inteligencia artificial se consolide como una “tecnología que automatiza el aprendizaje en máquinas y permite realizar tareas repetitivas, a través del almacenamiento de datos” (Rey, 2019/Falta), lo cual ha tenido un impacto en la economía actual, gracias al desarrollo derivado del tratamiento de datos de consumidores mediante la acción principal de la IA que consiste en la “combinación de tecnologías que agrupa datos, algoritmos y capacidad informática” (Comisión Europea, 2020, p. 2).

La expansión de la IA como herramienta para el manejo de información ha dado paso a la economía de los datos, la cual, según Ontiveros y López (2018, p. 23), se refiere al “conjunto de iniciativas, actividades y/o proyectos cuyo modelo de negocio se basa en la exploración y explotación de las estructuras de bases de datos existentes (tradicionales y procedentes de nuevas fuentes) para identificar oportunidades de generación de productos y servicios”, haciendo de los datos el núcleo de la economía del siglo XXI.

A su vez, esto le da un lugar fundamental a la Inteligencia Artificial en la toma de decisiones, pues se le consideraría como una herramienta útil para subsanar las debilidades de la racionalidad limitada (Simon, 1972) que impiden a la mente humana llevar a cabo todos los procesos en la toma de decisiones, haciendo de esta entonces una extensión de la razón humana necesaria para resolver problemas y necesidades básicas que requieren del análisis de gran cantidad de datos, que no son más que representaciones simbólicas y “valores que reflejan situaciones o hechos que se producen y que permiten recrear o conocer una realidad” (Ontiveros y López, 2018, p. 23).

Más allá de la manera en que la ciencia ficción describe la IA, donde se la muestra como prefacio de los avances contemporáneos, en las mismas creaciones audiovisuales también se advierte sobre el riesgo de una tecnología que deshumaniza mientras datifica, anulando “el protagonismo de las personas en la construcción de sus propias realidades” (Arbeláez-Campillo et al., 2021, p. 502).

Las preocupaciones por la evolución de la IA han venido creciendo y generando desconfianza en la gente, lo que además de ralentificar su desarrollo, es para la Comisión Europea (2020) uno de los principales obstáculos a superar en el diseño de un marco regulador para la inteligencia artificial, pues más allá de los beneficios que pueda tener esta tecnología en su calidad de vida, a los ciudadanos “también les preocupa el hecho de que la IA pueda tener efectos imprevistos o incluso que pueda utilizarse con fines malintencionados” (p. 11), representando un riesgo para los derechos fundamentales, en particular para la protección de datos personales, de la privacidad, de la libertad de expresión, de la seguridad, o generando incidentes de manipulación, pérdida de autonomía, discriminación, entre otras.

Es importante advertir que el posicionamiento tecnológico en mención implica a su vez una postura frente al debate en torno a la definición de inteligencia; es decir, la comprensión que se tenga de la inteligencia artificial como herramienta o autoridad implica una decisión frente al conocimiento que se considera valioso dentro de una sociedad y a los agentes que tienen la capacidad intelectual para establecer el discurso público (Byung-Chul, 2014, p. 10/Falta).

Relacionado a lo anterior, entre los retos que trae consigo la IA se destaca la introducción de robots para la práctica de servicios legales, lo cual afecta la percepción de confianza en los sistemas jurídicos, así como el eminente reemplazo de los asesores legales humanos por bots, desplazando la reciprocidad que representa trabajar asuntos legales con un ser humano (Xu y Wang, 2019) e, incluso, prescindiendo de profesionales para el análisis de casos.

Algunos de estos chatbots, “programas diseñados para interactuar con los usuarios de una manera similar a la humana, respondiendo preguntas y realizando tareas en un área específica” (Chase, 2016, citado por Fernández-Ferrer, 2023), además de su conocido uso comercial, ya son utilizados como asistentes legales y médicos, incluso en el ámbito de la educación, reduciendo tiempo de respuesta de profesionales que puede dedicarse a otras actividades necesarias para su rol y permitiendo, entre otros beneficios, el crecimiento exponencial del alumnado, integración de contenidos, acceso a material más rápido y fácil, inmediatez y una consecuente motivación académica.

En el ámbito del derecho, se le considera como una herramienta útil hacer frente a las barreras que impiden a las personas acceder a la justicia por falta de información y orientación jurídica pertinente para sus necesidades (Astudillo et al., 2020). En su análisis, logran clasificar los chatbots en tres: los de respuesta de interacción de texto, los cognitivos y los “word-spotting”. Con los primeros hacen referencia a aquellos que “no requieren aplicación de inteligencia artificial, toda vez que su funcionamiento está basado solo en comandos” (p. 15), mientras que los cognitivos sí están diseñados sobre IA e incluyen procesamiento del lenguaje natural (PLN) y machine learning, lo que les permite interpretar las intenciones de los usuarios, entre otras. Finalmente, la tercera categoría puede reconocer palabras clave y responder con respuestas previamente diseñadas, siendo estos los más limitados por su incapacidad de reconocer intenciones ni contextos.

En la arista de la salud, y como parte del desarrollo más reciente de la IA aplicado a las ciencias médicas, surgen los neurobots: instrumentos que integran mecánica, electrónica y computación en un robot, dotado de principios neurobiológicos y datos fabricados de manera explícita para cada paso del proceso de asociación, con el que se busca proveer una heurística que permita estudiar la función cerebral (Negrete-Martínez et al., 2015).

Entre las ventajas de este avance científico se cuentan la reducción del tiempo, aumento de la precisión y reducción de errores humanos en operaciones cerebrales, para asistir a los neurocirujanos en cirugías de la base craneal o trepanaciones (Handini et al., 2004). De igual forma, su utilización en conjunto con encefalogramas, está generando avances en el tratamiento del trastorno de déficit de atención en niños a partir del análisis de ondas cerebrales e interacción con un robot (Vita y Mennitto, 2019).

En adición, y desde una aplicación tal vez más polémica, existen neurobots que están siendo dotados de estímulos hormonales para manipular sus comportamientos, sea a través de estímulos de recompensa o estado de alerta, a fin de moldear robots neurobiológicamente inspirados para interactuar con el entorno (Rohrbein y Krichmar, 2013).

No obstante, el desarrollo que representa, esta utilización es una de las que más preocupan a la sociedad, pues además de temores distópicos de control mental, también podría decantarse en una agudización de la violencia neuronal ya generada por las tecnologías del yo vigentes en el estado de ánimo de las personas frente al rendimiento y la competencia contra las máquinas (Pari-Bedoya et al., 2021).

A partir de las reflexiones que genera la integración de tecnología, ciencia y biología, es que surge el cuestionamiento por los derechos humanos. En la segunda década del siglo XXI se han difundido ampliamente los Derechos Humanos de Cuarta Generación; aquellos derivados de la implementación tecnológica y que abordan aspectos como la protección de datos, el derecho a la privacidad, entre otras (Guerrero, 2021). Se les considera derechos humanos emergentes, en tanto su desarrollo está en proceso y comporta reflexiones bioéticas y políticas sobre su implementación (Villalobos et al., 2012).

Si bien no se ha terminado de establecer cómo debe ser la aplicación de las leyes en torno a las tecnologías, ya se debate ampliamente sobre el derecho de acceso a la tecnología e inclusión como herramienta fundamental para el acceso a la justicia (Benavides et al. 2021); no obstante, este hecho no puede atentar con el libre albedrío (Borbón et al., 2020), razón por la cual muchos ciudadanos aún se encuentran en un inequidad y la brecha digital no se ha cerrado lo suficiente, sea por alfabetización tecnológica (Letelier, 2019), especialmente los adultos mayores Mora-Chavarría y González-Matamoros, sino también por temor a la vulneración de otros derechos humanos previamente conquistados.

La pandemia fue un punto clave para el crecimiento de las tecnologías y el desarrollo acelerado de la IA (Martel, 2023); asimismo, puso en evidencia la necesidad de políticas que equilibren las desigualdades digitales en el mundo, principalmente, en América Latina (Lugo et al., 2020). De igual forma, este periodo complejamente social para la humanidad reveló los vacíos y los retos para la inclusión digital (Melia e Ilario, 2022) que, sin lugar a duda, ya está imbricada con la IA.

Por ejemplo: con el derecho a acceder al espacio que supone la nueva sociedad de la información en condiciones de igualdad y de no discriminación se está abriendo ampliamente la puerta a la IA para recabar la información de cualquier individuo partícipe de esta esfera digital, que si bien puede traer beneficios positivos como la revitalización de zonas rurales y apartadas (Domínguez, 2021), podría atentar contra la privacidad virtual, el derecho al olvido, el derecho al anonimato, el derecho al Habeas Data y a la seguridad digital. Pero en la otra arista, negar el acceso a este espacio digital, sea a través del analfabetismo o acceso al espectro, vulnera los derechos digitales (Barrio, 2021) como son el derecho a existir digitalmente, el derecho a la reputación digital, la libertad y responsabilidad digital, el derecho al big-reply, el derecho al domicilio, el derecho a la técnica al update, al parche; y el derecho al testamento digital.

A fin de garantizar los derechos anteriores, la legislación requiere de políticas que permitan garantizar el uso del espectro radioeléctrico y de la infraestructura para los servicios en línea sean satelitales o por vía de clave, el derecho a formarse en nuevas tecnologías.

En adición a lo anterior, la reflexión sobre estos derechos emanados de la interrelación de las sociedades con las TIC también ha dado paso al diálogo sobre los derechos transgeneracionales, con los que se “invocan los derechos de las futuras generaciones, las cuales constituyen una mera expectativa frente a su posible existencia” (Munévar, 2016, párr. 7), comportando una reflexión sobre si deben ser reconocidos y protegidos ante la incertidumbre de la continuidad de la humanidad.

A fin de dar cabida a la discusión, se ha desplegado una serie de debates en torno a la justicia intergeneracional, la cual solo es posible si las acciones de las generaciones que habitan el planeta actualmente toman en consideración la sostenibilidad de las generaciones futuras, temáticas que abarcan problemas económicos como las pensiones, derechos ambientales, equidad en derechos humanos, entre otras (Cossio y Ugalde, 2023).

Por su parte, Ferrer (2014) considera que una característica fundamental de este tipo de justicia es que no siempre atiende a reclamos inmediatos, pues se refieren usualmente a generaciones pasadas o futuras, por lo que “requiere relacionar a la generación presente con las generaciones futuras en ecuaciones de justicia” (p. 34), mientras que los reclamos actuales son, usualmente, del ámbito de la justicia intergeneracional, si bien puede tener causas en las acciones de generaciones pasadas. Según lo explica el autor, un caso de este tipo de reclamos son las inequidades en los países menos desarrollados, en relación con las grandes superpotencias.

En el centro de estos debates se encuentra el ámbito de la ciberseguridad, proceso que consiste en el “la protección de activos de información, mediante el tratamiento de las amenazas” (Fernández y Martínez, 2018) a través de la aplicación de estrategias tecnológicas y mecanismos digitales, a fin de evitar delitos informáticos, entendidos como todo acto “ilícito penal llevado a cabo a través de medios informáticos, incluido el blanqueo de capitales” (Fernández y Martínez, 2018).

Y es aquí donde la IA tiene una doble función: por un lado, es la herramienta apropiada para elevar los sistemas de seguridad cibernéticos y prevenir estos ataques, pero, paradójicamente, es también el mecanismo que ha permitido a ciber atacantes automatizar hackeos y cometer sus delitos con mayor facilidad e, incluso, sin su presencia activa, llegando, incluso, a manipular las decisiones que toman otros, gracias al análisis que les permite hacer la IA (Ayerbe, 2020).

De hecho, estudios previos indican que “el 30% de todos los ciberataques de IA utilizarán envenenamiento de los datos de entrada, robo del modelo de IA o muestras conflictivas para atacar a los sistemas de IA” (Garner, 2022, citado por Ayerbe, 2020), lo cual indica que además de utilizar estas estrategias, los ciberataques también se dirigen a atacar la misma inteligencia artificial, lo cual parece ser un llamado al desarrollo acelerado de la ciberseguridad.

En esta medida, y frente a la regulación y autorregulación que se requiere de la IA, además de la necesidad de generar confianza en el público (Comisión Europea, 2020), de formar mejor a los programadores para evitar conflictos de vulneración de derechos, reinventar los mecanismos de notificación y consentimiento, es necesario crear un mecanismo de certificación para aplicaciones que utilicen varios conjuntos de datos, así como un mecanismo transparente para la valoración de los datos (Sonmez, 2020).

Pero debate al respecto es amplio. Por un lado, está clara la necesidad de que la IA sea regulada, es decir, que se establezcan las normas y reglas a las que esta tecnología debería adaptarse (RAE, 2024), a fin de evitar perjuicios para la humanidad. Para algunos, esta responsabilidad cae directamente en los Gobiernos, quienes deben adaptar las recomendaciones de organismos globales a sus estructuras políticas y quienes, además, deben diseñar marcos de regulación propios para evaluar éticamente los impactos de la IA en sus sociedades, siendo los líderes en la protección de derechos humanos (Unesco, 2022).

Sin embargo, la Unesco y otros organismos, como Amnistía Internacional (Nolan, 2024), consideran que adicionalmente se debe involucrar en este proceso de regulación al sector privado, empresas y otros actores clave del sector, en una regulación vinculante que impida a los Gobiernos hacer uso de la IA para fines persecutores o que vulneren los derechos de los ciudadanos.

Es en este punto donde se entra a hablar de autorregulación, pues a falta de la acción de los Gobiernos en esta materia, principalmente de EE. UU., uno de sus grandes desarrolladores, y donde solo se registran avances de regulación de la IA en la Unión Europea y China, se ha hecho evidente la necesidad de las mismas empresas privadas que desarrollan estas tecnologías de disponer de mecanismos de autorregulación, con el fin de mitigar el impacto negativo que sus tecnologías podrían tener en la humanidad (Ibarra, 2023).

Hasta ahora, las grandes compañías han depositado sus esfuerzos en el desarrollo de un Foro de Modelo Frontier, con el fin de determinar las pautas para el desarrollo seguro de esta tecnología, incluyendo protocolos, auditorías y políticas, a partir de compromisos voluntarios y de la integración de asesores expertos e intergubernamentales como representantes de la ONU, organizaciones, activistas y otros interesados en la protección (Figueroa, 26 de julio de 2023).

La investigación busca indagar con más detalle sobre las relaciones entre la tecnología, el derecho, la seguridad, la educación y la interacción con la Inteligencia Artificial, respondiendo a preguntas como ¿cuáles son las modificaciones necesarias en la legislación para la protección de los DD. HH. a partir de la integración de la IA a la sociedad? ¿Puede la IA ser diseñada con sistemas de responsabilidad y autorregulación a fin de evitar vulneraciones a los DD. HH.? ¿Cómo cambia la IA las relaciones y comunicaciones humanas?

Para responder a estos cuestionamientos se procederá con una revisión sistemática a partir de la declaración PRISMA 2020, para así ofrecer una síntesis de la información disponible sobre la temática, a fin de orientar decisiones en la intervención jurídica sobre la regulación de la IA, lo cual, “partiendo de una incertidumbre formulada en forma de una pregunta bien estructurada, permite llegar a una respuesta basada en los datos probatorios existentes” (Urrutia et al., 2014, p. 100).

La metodología PRISMA surgió con el objetivo de mejorar la calidad de las publicaciones científicas de revisión, al dar un procedimiento específico para la correcta realización de una revisión de literatura, a fin de evitar sesgos en la investigación y sintetizar más efectivamente, los resultados, para lo cual Moher et al. (2020) proponen un diagrama de flujo que expone en detalle los procesos llevados a cabo en el proceso de revisión.

Adicionalmente, brindan una lista de chequeo que pretende, además de reducir los sesgos, enfocarse en el espectro de las muestras, verificación de resultados y reporte de metaanálisis. A través del perfeccionamiento de estos instrumentos se logran “revisiones sistemáticas que conduzcan a la investigación de costos-efectividad, diagnósticos o preguntas de prognosis, asociaciones genéticas y creación de políticas” (Moher et al., 2020, p. 3).

Siguiendo entonces la declaración PRISMA, las categorías de investigación que orientan el desarrollo de la revisión son: 1. Derechos humanos emergentes: Derechos de cuarta generación; 2. Comunicación no convencional - relaciones “interseudopersonales” (autorresponsabilidad y uso de chatbots); 3. Autorregulación de la IA: Inteligencia Artificial responsable.

Metodología

La construcción del estado del arte se elaboró mediante la revisión de artículos científicos en distintas bases de datos (DOAJ, Scopus, Dialnet, Redalyc y Publindex) y repositorios de universidades nacionales e internacionales, cuyas publicaciones delimitadas temporalmente corresponden al periodo comprendido entre 2014 y 2023, así como también, normatividad o instrumentos de orden internacional.

El desarrollo metodológico empleado consiste en una revisión sistemática (Benet et al., 2015), con el fin de recabar los avances científicos a través de la literatura actual con relación a las temáticas objeto de investigación, para así determinar nuevas tendencias e identificar vacíos que den lugar a la formulación de nuevas preguntas de investigación.

La presente revisión tiene como punto de referencia temática el concepto de inteligencia artificial, articulado con el ejercicio de los Derechos Humanos y su implicación en la educación; en tal sentido, los criterios de selección de literatura se delimitaron en los siguientes descriptores de búsqueda: Derechos Humanos, cuarta generación, chatbot, bots, comunicación, algoritmos, ética, vacíos, caja negra.

Los artículos de investigación que fueron tenidos en cuenta, corresponden a aquellos de acceso abierto, publicados en idioma español, inglés, ruso y portugués. Otro criterio de inclusión, son los artículos donde los metadatos concernientes al título, resumen o palabras clave, tuviese incorporado los descriptores de búsqueda mencionados anteriormente.

El criterio de exclusión para la revisión de literatura obedece a documentos que no coincidieran con artículos de investigación, de revisión o cartas al editor. Consecuentemente, se obtuvo un total de sesenta (60) documentos, siete (7) nacionales, cincuenta y dos (52) internacionales y un (1) instrumento internacional (Declaración Universal de los Derechos Humanos).

Se presentan los artículos recuperados mediante los criterios de selección y exclusión, expuestos a continuación:

Tabla 1 Criterios de selección y artículos recuperados en función de los descriptores de búsqueda 

Los artículos analizados en la revisión sistemática se organizaron en tres temáticas principales, sintetizadas a partir de los descriptores de búsqueda empleados, clasificados así:

  1. Derechos Humanos emergentes: Derechos de cuarta generación.

  2. Comunicación no convencional - relaciones “interseudopersonales”.

  3. Autorregulación de la IA: Inteligencia Artificial responsable.

A continuación, se caracterizan estas tendencias y se describen los documentos hallados en términos de sus aportes empíricos, teóricos o reflexivos, resaltando los objetivos planteados y algunos aspectos metodológicos y principales hallazgos. Se cierra cada tendencia con una nube de palabras construida mediante la herramienta NVIVO, que tiene en cuenta todos los documentos para cuantificar la frecuencia de palabras claves. Al final de este capítulo, se resaltan los principales vacíos investigativos y preguntas abiertas encontradas en tesis doctorales.

Derechos Humanos emergentes: Derechos de cuarta generación

En la presente tendencia se agrupan las investigaciones que estudian la evolución de los Derechos Humanos a partir del desarrollo de la sociedad mediada por los nuevos avances tecnológicos; por tal motivo, las temáticas abordadas corresponden a conceptos como tecnología, mundo digital, ciberespacio, TIC y sociedad telemática.

Inicialmente, es necesario abordar como punto de partida el instrumento internacional que se constituye como la piedra angular de los Derechos Humanos: la Declaración Universal de Derechos Humanos, la cual, para el presente estudio, refiere dos derechos a garantizar (ONU, 1948, art 27.1, art. 27.2): el derecho a acceder a nuevas tecnologías y el derecho de protección a quien aporta nuevas creaciones. Resulta importante entonces sugerir la necesidad de delimitar el ejercicio de derechos, en tanto las nuevas creaciones en el contexto de la IA no supriman o limiten otros Derechos Humanos.

La anterior delimitación normativa se ajusta a las investigaciones desarrolladas por distintos autores (Morales, 2018; Cova, 2022), cuyas apreciaciones clasifican los Derechos Humanos en una nueva categoría: los Derechos Humanos de cuarta generación, la cual está directamente relacionada con la biotecnología. Sin embargo, existen estudios, como el de Trikoz y Gulyaeva (2021), que consideran que los derechos de cuarta generación están enmarcados dentro de la protección y garantía del derecho al medioambiente, la paz y exploración del espacio, entre otros.

Como primera dimensión, tanto como Galindo (2019) equiparan el concepto de derechos humanos de cuarta generación con el de derechos digitales, entendidos como aquellos derechos convencionales (civiles, sociales, políticos, económicos y culturales) que se ejercen en ambientes del ciberespacio.

Continuando la misma línea de análisis, el estudio realizado por Ivanii et al. (2020) señala que los DD. HH. de cuarta generación están directamente relacionados con el desarrollo del ser humano a partir de la intervención de la tecnología y la genética, entre otros; impacto que también va de la mano con la evolución de la sociedad.

No obstante, es indudable que estos cambios generan consecuencias en los seres humanos y, por lo tanto, debe existir una garantía a través de la protección de derechos cuando estas intervenciones vayan en contra de la dignidad humana. En este sentido, un nuevo desarrollo normativo es la herramienta jurídica apropiada para proteger y limitar las eventuales afectaciones a los miembros de la sociedad en general.

Si bien ya se esbozó mediante el análisis de Ivanii et al. (2020), realizado en Turquía, que la cuarta generación de DD. HH. está relacionada con el uso de la biotecnología, este se complementa con la investigación presentada por Dolin (2018), quien además plantea el impacto sobre el cuerpo humano, pero también resalta la necesidad de su regulación en procura de salvaguardar los intereses de la sociedad, siempre y cuando la extralimitación en el uso de nuevas tecnologías no se constituya en una amenaza para otros.

Dando continuidad a las ideas anteriormente propuestas, se presenta el estudio desarrollado por Faralli (2015) en Venezuela, quien mediante su investigación denominada “Protección de los derechos y las nuevas tecnologías. El caso de la genética en el ámbito de los derechos de la era tecnológica” incorpora los avances en genética en el catálogo de esta nueva generación de derechos humanos, refiriendo las ideas de Norberto Bobbio en 1990 sobre la necesidad de proteger nuevos derechos, producto de prácticas consideradas invasivas en la manipulación biológica de seres humanos.

La segunda dimensión a plantear corresponde a la temática abordada en diferentes textos respecto a lo que denominan algunos autores como derechos somáticos, entendidos como el ejercicio autónomo de cada individuo para disponer de su propio cuerpo. De acuerdo con Perepolkin et al. (2021), estos están compuestos por aquellos relacionados con el cambio de sexo, el trasplante de órganos, la clonación y la inseminación artificial.

La anterior investigación es concordante con el estudio que clasifica este tipo de derechos en “cuatro grupos: 1) derecho a la eutanasia, 2) derechos reproductivos y derechos relacionados con la disposición de órganos y tejidos, 3) derechos en la esfera sexual, 4) derecho para cambiar de sexo (Ivanii et al., 2020, p. 115).

El concepto de derechos somáticos descrito anteriormente se complementa con los planteamientos del estudio llevado a cabo en Rumania por Shevchuk et al. (2021), quienes consideran que la disposición de cada persona de manera independiente con su cuerpo también brinda la posibilidad al interesado, en el ejercicio de su derecho, de ser intervenido mediante técnicas o medicamentos con el propósito de modernizarlo, reconstruirlo y/o restaurarlo.

En definitiva, conforme al trabajo realizado por Potapchuk et al. (2020), los derechos somáticos no son otra cosa que la garantía de la integridad corporal y espiritual que cada individuo puede exigir ante la sociedad; pero, finalmente, el núcleo duro de estos derechos reside en la protección a la vida, la libertad de conciencia y la tutela de la dignidad humana.

En una tercera dimensión, Martínez (2014) señala la importancia de delimitar las dinámicas de los ambientes digitales en términos jurídicos, toda vez que corresponde a un escenario intangible, que a su vez refleja la realidad, y por lo tanto permite el ejercicio de determinados derechos. Sugiere entonces la necesidad de situar los derechos humanos de cuarta generación dentro de un ordenamiento jurídico digital.

A partir de las observaciones descritas por Martínez (2014) se plantea la pertinencia de realizar una distinción en los ambientes digitales en los canales de comunicación respecto a la información veraz, el derecho a la privacidad, la información que se comparte a título oneroso y demás información a la que se puede acceder en el ciberespacio.

El anterior estudio guarda correspondencia con los planteamientos de Kartashkin (2022), quien en su estudio denominado “Digital human rights: International-legal and social dimensions” destaca la necesidad de desarrollar la regulación normativa idónea a partir de un nuevo Pacto Internacional - adicional a los ya vigentes-, a fin de evitar la vulneración de la información

personal o la propiedad privada incorporada en la red, sino también la divulgación de información falsa.

No obstante, el trabajo desarrollado en España por Cova (2022), denominado “Derechos Humanos y Derechos Digitales en la Sociedad de la Información”, establece que la evolución tecnológica dista de su desarrollo normativo, ya que no guarda una relación proporcional. Es por ello que la garantía de los derechos digitales no puede ser ajena al respeto por la dignidad humana, toda vez que la protección de Derechos Humanos debe ser integral, como también, tal y como dan cuenta los DD. HH. de primera, segunda y tercera generación, ha sido una evolución progresiva de la humanidad en el marco de las sociedades democráticas.

En conclusión, el análisis desplegado por Cova (2022) coincide con las apreciaciones descritas por Ivanii (2020), en la medida en que consideran que una nueva construcción normativa es la herramienta jurídica apropiada para proteger y limitar las eventuales afectaciones a los miembros de la sociedad y a la sociedad en general.

Esta afirmación es reiterada en el trabajo realizado por Razmetaeva et al. (2022), quienes mediante la investigación “The Concept of Human Rights in the Digital Era: Changes and Consequences for Judicial Practice” consideran que los derechos humanos están transitando por una nueva actualización debido a la era digital, pues con esta surgen cambios en la sociedad, la cual no es ajena a nuevas y diferentes amenazas, teniendo en cuenta que la regulación normativa estaba tradicionalmente situada en un contexto tangible. En tal sentido, las acciones digitales demandan de normas que garanticen nuevos límites en pro de proteger y evitar que se socaven los derechos ya conocidos, así como los emergentes.

Como ya se ha expuesto en el desarrollo de la presente revisión, el propósito de materializar los DD. HH. de cuarta generación es proporcionar las garantías necesarias para el empleo de nuevas tecnologías; sin embargo, se presenta a continuación una cuarta dimensión que funge como contraparte en el ejercicio de estos derechos, la cual puede constituirse como una extralimitación en el empleo de tecnologías, convirtiéndolas en una posible amenaza.

Para ello, es oportuno conocer las apreciaciones presentadas en la investigación llevada a cabo por Perepolkin et al. (2021), quienes reconocen que este puede generar un impacto en la humanidad, causando consecuencias negativas ante el eventual uso deliberado e ilimitado de dichas tecnologías, motivo por el cual su desarrollo debe trascender de la esfera científica al contexto jurídico.

Adicionalmente, se puede presentar la secuela llamada por Corvalán (2018) como el “lado oscuro de la inteligencia artificial”, alusión utilizada por el investigador para describir la posibilidad de que los humanos pierdan el control sobre la IA. Dadas las vicisitudes en el comportamiento de los seres humanos, impredecible e imperfecto, no resultaría incoherente proyectar la creación del “derecho a errar” como un derecho humano que garantice “el derecho a la diversidad aleatoria e imperfecta inherente al ser humano.” (Corvalán, 2018, p. 314).

Otra dimensión identificada en la presente revisión de literatura corresponde a la posible omisión en la protección de derechos fundamentales, como se expone en la investigación presentada por Shevchuk et al. (2021), respecto a la extensión del derecho del acceso a la salud en ambientes virtuales como la transición de la prestación de servicios médicos tradicionales, a aquellos novedosos escenarios análogos.

El trabajo realizado por Shevchuk et al. (2021), denominado “Human right to virtual reality in the healthcare: legal issues and enforcement problems”, plantea que las actividades profesionales, como para el caso del presente estudio, desarrolladas habitualmente en escenarios físicos, se pueden trasladar al ciberespacio o espacio virtual en el ejercicio médico. Desde este escenario, el paciente se beneficia de acceder a este servicio básico -mediado por diferentes dispositivos- pero que en un ambiente virtual representa, en la misma medida, la realidad física. En tal sentido, el acceso a la salud se hace extensivo al derecho a la realidad virtual, motivo por el cual nace la necesidad de legislar con el ánimo de proteger este nuevo derecho.

La sexta dimensión, conforme a los planteamientos de Morales (2018), obedece a las amenazas en que las tecnologías se pueden erigir como una nueva brecha que promueve la explotación para aquella población que carece de estas herramientas de comunicación, respecto al poder que pueden ejercer aquellos que cuentan con la posibilidad de acceder a estos recursos informativos. Esta apreciación se integra con la democratización del conocimiento propuesta por Aguirre y Manasía (2015).

De acuerdo con su investigación titulada “Derechos humanos de cuarta generación: inclusión social y democratización del conocimiento”, desarrollada en Venezuela, el acceso al conocimiento a través de las TIC debe entenderse como parte de los derechos emergentes que garanticen la inclusión a la sociedad digital, pues el proceso de la alfabetización digital cierra la brecha de desigualdad, en la medida en que toda la población tenga las mismas oportunidades de alfabetización en esta coyuntura, apropiando así, con mayor intensidad, los conocimientos e información suministrada por los medios globalizados.

Así, el concepto de democratización en el ciberespacio guarda relación con las anteriores interpretaciones, pues la comunicación facilitada por la Internet se constituye “en un medio democrático que permite la libertad de expresión y el resto de las libertades asociadas aplicadas a toda la extensión de actividades personales y colectivas” (Galindo, 2019, p. 3).

Por otra parte, se considera pertinente mencionar, como séptimo aspecto, la intervención de los organismos internacionales como garantes de los derechos humanos de cuarta generación a partir del trabajo presentado por Sapinski (2022), para quien la protección de derechos asociados con el ciberespacio requiere de la protección necesaria para todos los miembros de la sociedad que van accediendo a estas nuevas tecnologías.

De esta manera, y siguiendo la línea de trabajo del ya mencionado Kartashkin (2022), se señala que los derechos digitales permean las relaciones sociales, generando así nuevos problemas jurídicos. Por consiguiente, sugiere la necesidad de prever su desarrollo normativo a partir de nuevos protocolos, complementarios a los instrumentos internacionales.

Sin embargo, en contraste con los planteamientos de los anteriores autores, la investigación que desarrolló Murray (2020) expone que la percepción respecto al impacto de las herramientas IA en las personas carece de precisión, pues su uso inadecuado abre la puerta a eventos que afectan y perjudican los derechos humanos.

El anterior estudio complementa las conclusiones expuestas por Lane (2023) en su trabajo desarrollado en Países Bajos, quien considera que los efectos negativos en el empleo de la IA cada vez son más perceptibles.

En tal sentido, considera fundamental los aportes de las empresas de Inteligencia Artificial, en tanto se encuentran en una “posición clave para identificar, prevenir y mitigar los riesgos que plantean los sistemas de IA de las ciudades inteligentes” (Lane, 2023, p. 1). De igual manera, Lane (2023) enuncia que la posibilidad de reducir los errores en el uso de la IA puede radicar en la alfabetización de sus usuarios.

Finalmente, se concluye a partir de los estudios antes referidos que, en el marco de los derechos humanos de cuarta generación, también pueden causarse perjuicios ante la inobservancia de las garantías efectivas, como lo afirma Valdés (2015), quien considera que en el bioderecho y el derecho reparatorio se puede ocasionar un daño genético, como una afectación biológica mediante técnicas genéticas sin fines terapéuticos, que como resultado sea “capaz de afectar la biología, autonomía, dignidad e integridad del individuo, en virtud de fracturar sustancialmente su constitución genética original con fines de predeterminar o determinar artificialmente su existencia” (Valdés, 2015, p. 1223).

Fuente: elaboración propia

Figura 1 Nube de palabras de la primera tendencia 

Educomunicación digital: comunicación no convencional y relaciones interseudopersonales

En el desarrollo de esta tendencia, se concentran las investigaciones que estudian la dinámica comunicativa en el ciberespacio; en tal sentido, se estudian trabajos relacionados con conceptos como Inteligencia artificial, chatbot, educación, comunicación y algoritmos.

En primer lugar, se presenta la investigación desarrollada por Surjandari et al. (2022), quienes afirman que en los escenarios educativos el empleo de chatbots genera un impacto positivo, toda vez que los estudiantes expresan motivación durante su uso, contribuyendo así en los procesos de aprendizaje independiente. Estudio que se complementa con las consideraciones de Sáez-Fernández et al. (2020), pues en su investigación consideran que el chatbot, denominado por ellos como agente conversacional, se constituye como un nuevo actor dentro de las prácticas de enseñanza y aprendizaje, el cual influye en la motivación y evolución de los estudiantes mediante la interacción con el chat, la cual impacta en dichas mejoras.

Otro de los beneficios que se atribuye a la herramienta de chat y a su impacto en los estudiantes es señalado por Esparza et al. (2016), quienes manifiestan que el bot está programado para realizar un análisis previo de las preguntas y temáticas que su interlocutor propone, las cuales, posteriormente procesa para brindar una respuesta coherente en la conversación. La anterior consideración se suma a los estudios presentados por Ayuso y Gutiérrez (2022), donde algunas IES han aprovechado los recursos proporcionados por la IA, como los tutores virtuales (chatbots), con el fin de generar un vínculo interactivo con los estudiantes, haciendo un seguimiento de su evolución en tiempo real.

No obstante, el desarrollo de las investigaciones asociadas con las tecnologías que articulan el uso de chatbots en contextos educativos se encuentra en una etapa primitiva, lo cual demanda de mayores investigaciones para determinar el impacto que causa en las prácticas educativas (Al-Abdullatif, 2023).

En España, la publicación titulada “Un chatbot sobre cuestiones sintácticas: Una propuesta de ayuda en el aula de primero de bachillerato” (Mazón, 2021) hace énfasis en la utilidad de la IA a partir de los bots para fomentar un adecuado uso de la gramática desde la sintáctica, obligando así a los estudiantes interlocutores a desaprender el uso de palabras, frases o términos que no hagan parte de lenguaje tradicional. En contraposición, Mendoza (2023) señala que es probable que la conversación entre un bot y un ser humano adolezca de imprecisiones gramaticales o de emplear un lenguaje propio de determinada cultura, pero no es un factor fundamental para desestimar su uso. Igualmente, reitera que “El estudiantado necesita conocer las ventajas y limitaciones del uso de aplicaciones de generación de texto basadas en LMM y solo puede conseguirlo si las utiliza con el apoyo de un profesorado bien informado” (Mendoza, p. 16, 2023).

La inmediatez en las comunicaciones a través de los chatbot se identifica como otro patrón sobresaliente en las investigaciones. A partir de lo descrito en la investigación presentada por Auqui (2021), que a su vez se complementa con el trabajo desarrollado en España por Ruiz (2023), se pone de manifiesto la acogida positiva de la aplicación ChatGPT en el escenario académico, debido a que es un medio para obtener información efectivo e inmediato, cerrando la brecha comunicacional entre profesores y estudiantes; sin embargo, su empleo requiere una orientación previa para garantizar un uso adecuado que lo constituya como una herramienta efectiva, por lo tanto, demanda de un nuevo proceso de alfabetización digital.

La anterior consideración se complementa con los estudios llevados a cabo por Monge y Ávalos (2020) en Costa Rica, para quienes las prácticas educativas apoyadas en la IA se presentan como una herramienta auxiliar a la labor profesoral, donde, al descentralizar los canales de comunicación mediante chatbots, se optimizan el tiempo y los recursos en otras actividades académicas que demandan mayor atención. De la misma manera, tal y como lo exponen Esparza et al. (2016), en un futuro sería probable que se programe un bot que se comunique mediante comandos de voz para escenarios educativos.

En todo caso, Monge y Ávalos (2020) consideran que el uso de bots está dispuesto para resolver dudas básicas de índole administrativo, tales como fechas y demás plazos de cumplimiento, con el fin de que los profesores orienten consultas de mayor complejidad.

Otra situación que logra observarse en la coyuntura de las comunicaciones mediadas por la IA es aquella relacionada con la fiabilidad de la información, pues de acuerdo con la investigación desarrollada por García et al. (2023), los algoritmos son otro actor que interviene e impacta escenarios económicos, sociales y políticos, a través del tratamiento de información personal, la cual puede permear los canales comunicativos con desinformación, toda vez que “los renovados modos de comunicación digital están creando múltiples expresiones, definidas bajo nociones como generación meme, lenguaje viral y fake news, con una abundante distorsión del mundo y reproducción de desinformación constante” (Briceño y Barrios, p. 41, 2022).

Sin embargo, otros autores consideran que una de las características de la comunicación mediada por chatbots es la precisión, pues de acuerdo con la investigación llevada a cabo en España por Artiles-Rodríguez et al. (2021), la IA debe estar previamente alimentada por una importante cantidad de datos, dentro de unas temáticas específicas, bajo el supuesto de que serán consultadas por estudiantes de un área disciplinar particular.

A lo anterior se suma lo expresado por Abdul (2020): es posible utilizar el apoyo de la IA con el fin de procesar información previamente almacenada y organizada para que, mediante un mecanismo automatizado, se genere un análisis en tiempo menor, lo cual no sucedería si dicho análisis lo elabora un ser humano. Sin embargo, hay funciones inherentes a las personas que este tipo de inteligencia no es capaz de desarrollar, relacionadas con su capacidad humana de autogestionar emociones, lo cual a la vez influye en la capacidad de análisis y toma de decisiones.

A propósito de los planteamientos presentados por Abdul (2020) en Estados Unidos sobre la IA y sus mecanismos automatizados surge una situación en el ejercicio comunicativo del chatbot, donde confluye una problemática entre la ética, la libertad de expresión y la censura. Por lo tanto, resulta pertinente socializar una nueva denominación que aparece en esta coyuntura tecnológica, presentada en la investigación de Cabanelas (2019) como la Super Inteligencia Artificial (SIA), cuyas capacidades rebasan a las de la ya conocida IA. Ahora bien, habría que mirar si en su diseño se desestiman los aspectos éticos a incorporar dentro de sus mecanismos automatizados, pues serían estos los que, en cierta medida, podrían generar un grado de autorregulación ante un mecanismo autónomo de tan alta capacidad intelectual.

Lo anterior, teniendo en cuenta el trabajo desarrollado en Ecuador por Larrondo y Grandi (2021), toda vez que consideran relevante la programación de la inteligencia artificial, en la medida en que pueda omitir detalles particulares en la comunicación, relacionados con el contexto y la cultura, por lo que estaría incurriendo en una eventual vulneración de la libertad de expresión. No obstante, la misma autorregulación de la IA para abstenerse de proyectar información con determinado contenido (violencia-desnudez) en un contexto educativo o histórico, podría también incurrir en generar condiciones de censura en la comunicación.

Esto demuestra que, pese a la programación de la IA, la manera en que gestiona su comunicación todavía carece de contexto, toda vez que “aún nos encontramos con sistemas automatizados débiles que necesitan la supervisión humana para poder llevar adelante sus acciones sin que se afecten otros derechos” (Larrondo y Grandi, p. 183, 2021).

Otras investigaciones tenidas en cuenta, fueron las desarrolladas en Brasil, en la que la comunicación en ecosistemas digitales incorpora un elemento subvalorado pero no menos importante, pues de acuerdo con De Souza, en la educación digital brasileña se presenta “el meme como una posibilidad de reflexionar sobre el día a día en el aula a la luz de la exclusión y la inclusión” (De Souza, p. 216, 2019), y teniendo en cuenta que la cotidianidad de su uso en escenarios tales como las redes sociales es un mecanismo de proximidad entre profesores y estudiantes (De Souza, 2019).

La anterior investigación guarda correspondencia con lo propuesto por De Oliveira (2019), quien utiliza el concepto educomunicación como una nueva forma de entender la realidad en el contexto educativo que, además, se articula con un nuevo código de lenguaje: el género meme como un tipo de narrativa que es socializada en el ciberespacio con la intención de representar la vida cotidiana. En tal sentido, de acuerdo con el trabajo realizado por Santana (2019), este código puede incorporarse como material didáctico dentro de los contenidos pedagógicos.

Sin embargo, no debe desestimarse la realización de un control previo y de una contextualización del contenido, pues debido “a que la rapidez con que circulan en el mundo digital informaciones, ideas, opiniones, imágenes, etc. pone en duda la calidad del mensaje. En particular, hay mucha información que va en contra de la integridad del individuo” (Santana, p. 272, 2019).

Una problemática que surge a partir de las consideraciones de Santana (2019) respecto al vasto contenido informativo en la red y la calidad de la información que es susceptible de imprecisiones se complementa con el trabajo desarrollado en Venezuela por Briceño y Barrios (2022), pues, para ellos, la gestión de la comunicación en el ciberespacio, recaba un capital de información “gracias a nuestras reacciones, manifestaciones, preferenciales, gustos y disgustos revelados en las interacciones y en las búsquedas ciberespaciales, por medio de la web y redes sociales, bajo mecanismos como el ícono del me gusta, me encanta, me divierte, entre otros” (Briceño y Barrios, p. 43., 2022). Bajo el entendido de lo que Briceño y Barrios (2022) denominan comunicación infecciosa, aquellas manifestaciones relacionadas con emotividad, afectividad y contenido viral, pese a ser carentes de racionalidad, son propias de la comunicación en ecosistemas digitales.

Para cerrar esta tendencia, como ya se ha mencionado en el desarrollo de la misma sobre el impacto y los efectos de la inteligencia artificial en la educación, los investigadores Aparici et al. (2021), en su trabajo desarrollado en México, proponen la necesidad de promover lo que denominan la alfabetización algorítmica, como una programación predictiva que permite identificar el potencial de cada niño para, así, explotar su desempeño de acuerdo a sus condiciones particulares: en “el proceso de alfabetización algorítmica se toma como punto de partida el algoritmo en función de cada contexto, y se problematiza sobre sus implicaciones en cada realidad” (p. 53,). La figura a continuación representa las palabras que reiteran los conceptos más relevantes dentro de cada una de las investigaciones abordadas en la presente tendencia.

Figura 2 Nube de palabras de la segunda tendencia 

Autorregulación de la IA: Contexto, ética y responsabilidad tecnológica

En esta tendencia se recopilaron los trabajos concernientes con aspectos que inciden en la autorregulación de la Inteligencia Artificial; por lo tanto, las investigaciones analizadas centran sus temáticas en los siguientes conceptos: ética, responsabilidad, contexto, caja negra y autorregulación.

El primer grupo de investigaciones guardan relación con el nivel de fiabilidad generado por la tecnología automatizada, iniciando por Lupo (2022), para quien es importante que la tecnología se vea solamente como desarrollo progresivo, sino también como un ente con la capacidad de desbordar su propósito bajo la toma de decisiones autónomas que pueden impactar en la sociedad, lo cual requiere de la gestión de un nuevo ordenamiento jurídico para su acompañamiento y contención.

Del mismo modo Suchacka et al. (2021) señalan que las tecnologías se pueden entender como un fenómeno novedoso dentro de la sociedad, teniendo en cuenta las nuevas relaciones interpersonales que llaman a crear cuestionamientos éticos, para que el desempeño de inteligencias automatizadas no sea impredecible, más allá de los impactos que se perciben positivos en este proceso de evolución.

De ahí que para Morán (2021), si bien la programación busca en la IA tomar decisiones autónomas basadas en experiencias, no puede desconocerse que dicha programación esté destinada a emular valores como la honestidad -o también su antivalor-, estableciendo una razón más que demanda su delimitación ética y jurídica, consideración que coincide con el trabajo de Esquivel y Zambrano (2022), para quienes debe caer sobre los programadores la responsabilidad de gestionar en el robot aquella capacidad de discernir entre lo bueno y lo malo.

No obstante, conforme a lo precisado por Arbeláez-Camíllo et al. (2021), no pueden obviarse las posibles consecuencias negativas, dada su capacidad de autonomía, para que la IA tome decisiones éticamente cuestionables que se pueden constituir como una amenaza para la sociedad, pese a las bondades que en desarrollo ya son conocidas.

Un segundo escenario de análisis se ubica en la responsabilidad y los límites de la ética, iniciando con la investigación de Cortina (2019), titulada “Ética de la inteligencia artificial”, en la que destaca la importancia de implementar estrategias que acompañen el desarrollo de la IA, pues el panorama en que las máquinas puedan superar al hombre es incierto, lo que no debe descartar la necesidad de limitarlos en su programación como garantía de seguridad para sus usuarios.

Lo anterior, coincide con el trabajo desarrollado en Colombia por García (2022), para quien resulta fundamental proyectar aspectos éticos que delimiten la IA; pero además considera que la evolución tecnológica debe avanzar paralelamente con el desarrollo legislativo adecuado para esta novedosa etapa de la sociedad, toda vez que no solo la programación de algoritmos, sino también de las herramientas jurídicas, estarían destinadas a regular que las actuaciones, comportamientos y evolución de las máquinas no sobrepasen sus capacidades ni pasen por encima de los intereses de la sociedad.

De la misma manera, para Villalba (2020) la incorporación de criterios éticos dentro de la programación de la IA con el fin de limitar sus capacidades es importante, pues en la medida que actúe deliberadamente desbordaría las funciones para la cual se diseñó, transgrediendo posiblemente los derechos de otras personas, motivo por el cual se requiere un trabajo de auditoría, tal y como destacan Arora y Sarkar (2023), como un campo en la ética de la IA, con el fin de que se establezcan los parámetros de responsabilidad atribuibles a esta tecnología.

Como consecuencia, la investigación titulada “Inteligencia artificial, responsabilidad y compromiso cívico y democrático”, desarrollada en Argentina por Terrones (2020), plantea que la IA no solo tiene impactos positivos, pues en caso que las consecuencias de las nuevas tecnologías no sean abordadas desde un criterio de responsabilidad, cabe la posibilidad de generar afectaciones que sobrepasen la capacidad de control de los humanos. Sin embargo, Morán (2021) considera que su uso no debe satanizarse, en tanto su aplicación se utilice con la finalidad para la cual se diseñó; esto es, como una herramienta.

El tercer conjunto temático, concierne al criterio ético a partir del contexto, en el cual Piedra (2022) plantea que la percepción de la ética aplicada a la IA, si bien se ha desarrollado desde una perspectiva globalizada, no puede desatender contextos específicos, máxime que su desarrollo, aunque provenga de potencias mundiales cuyas culturas estén embebidas en su programación, desestime aspectos que no hagan parte de la cultura europea o angloamericana y, por lo tanto, deseche conocimientos que se gestan a partir de grupos sociales de América Latina. Ello implica una descentralización del conocimiento que contextualice los criterios éticos a partir de sectores sociales específicos.

En el mismo sentido, la investigación desarrollada por Verdegay et al. (2021) confirma que los criterios éticos de la IA deben guardar estricta atención del contexto para la toma de decisiones a la hora de resolver problemas, de tal manera que los programadores deben tener en cuenta este aspecto. También se destaca que el desarrollo ético de la IA debe atender a diferentes aspectos del contexto, tales como la sociedad, la cultura y su estructura legal, lo cual posteriormente servirá como punto de partida para nuevos desarrollos normativos. Finalmente, en el trabajo titulado “Implicancias éticas de la inteligencia artificial. Tecnologías y producción de noticias”, el investigador reitera que “La producción informativa debería ser regida por tradiciones en las que las normas éticas sean un horizonte procedimental, no impuestas por una lógica de mercado o económica.” (Lassi, 2022, p. 166)

Por otra parte, desde el área de la medicina, el contexto es analizado en el trabajo desarrollado en Argentina por Verona (2022), denominado “La ética de la inteligencia artificial”, quien observa que los datos globales programados en la IA pueden generar resultados inadecuados en el escenario de la salud, por lo tanto “es también importante considerar la posibilidad de generación de datos locales de calidad y cantidad suficientes para entrenar los algoritmos” (Verona, 2022, p. 21).

Lo anterior es confirmado por Paladino (2021), quien describe en su investigación la imposibilidad de cuantificar datos que hacen parte de la experiencia de la enfermedad del paciente, limitando el uso de la IA en el área de la medicina, pues la estadística no tiene un criterio que mida este tipo de variables propias del contexto del enfermo.

No obstante, pese a que la anterior afirmación también es socializada por Ishengoma (2022) cuando menciona que los algoritmos están limitados respecto a las condiciones demográficas de determinadas poblaciones, como los aspectos particulares de médicos y pacientes que pueden variar de acuerdo a cada contexto, también señaló que aquellas situaciones dieron lugar a interesarse en una subdisciplina de la IA denominada Inteligencia Artificial Explicable (XAI por su siglas en inglés), pues según Ishengoma (2022) esta subdisciplina le permite a la IA conocer el contexto en que se desempeña.

A modo de conclusión, de acuerdo con Esquivel y Zambrano (2022), una de las consecuencias del desarrollo y programación de la IA con criterios éticos también implica la necesidad de atribuirle a esta inteligencia deberes, para mantener un equilibrio adecuado; pero es innegable la necesidad de regular estas tecnologías (como un posible sujeto de obligaciones) o a sus propietarios, para que su empleo esté condicionado por las demandas de la sociedad.

Adicionalmente, se recabaron las investigaciones que dieron como resultado la conformación de un cuarto grupo que confluyó en el impacto de la IA sobre la protección de datos personales.

Cortina (2019) expone que dentro de los principios que enmarcan a la IA se debe garantizar la privacidad de las personas a través de la protección de sus datos personales; garantía que confirma Verdegay (2021), para quien los Sistemas Autónomos de Decisión (SAuD) y demás proveedores que administren datos personales deben ofrecer las condiciones necesarias que garanticen el derecho a la privacidad y la protección de datos, en tanto su publicación o distribución en medios masivos no haya sido autorizada mediante consentimiento previo; a esto se suma Zabala (2021), quien considera que es imprescindible que los Estados establezcan códigos éticos para la IA respecto a las múltiples amenazas que pueden representar (referente a la limitación del uso de datos personales).

Como un último grupo, se presentan los trabajos que orientan el desarrollo de la IA hacia el concepto de “caja negra”, iniciando por la investigación de Arora y Sarkar (2023), titulada “Auditing Artificial Intelligence as a New Layer of Mediation: Introduction of a new black box to address another black box”, la cual es referida por el autor como una sección de entradas y salidas, pero su particularidad radica en que no es posible comprender su funcionamiento interior.

Dicho de otra manera, Giró y Sancho (2022) lo exponen como un algoritmo tan complejo que imposibilita la comprensión del ser humano, pero, a pesar de ello, existe la expectativa de que está programado para dar la respuesta adecuada. La anterior afirmación guarda concordancia con lo manifestado en la investigación de Ishengoma (2022), pues la caja negra dificulta la posibilidad de ver el funcionamiento de los algoritmos dentro de un sistema que emplea IA, que a su vez complejiza la comprensión respecto a saber cómo o porqué se tomó la decisión.

Figura 3 Nube de palabras de la tercera tendencia 

Conclusiones

La revisión bibliográfica sobre los tres puntos de discusión permitió identificar, por un lado, que la evolución de las tecnologías deja entrever cómo emergen nuevas denominaciones en Derecho, tales como los derechos somáticos y digitales, cuyas garantías deben guardar estricta protección a la dignidad humana.

Por otro lado, que la programación de los bots utilizados en el sector educativo emergente debería desarrollarse para ser una herramienta auxiliar y motivacional que oriente a los estudiantes hacia la superación de aquellas limitaciones en la comunicación entre estos y los demás actores educacionales.

Finalmente, que las nuevas tecnologías que han desarrollado la inteligencia artificial demandan la observancia de criterios éticos, pues la programación de sus actuaciones, también involucran el acompañamiento de valores tanto positivos como negativos y, como consecuencia, decisiones basadas en estos; en tal sentido, si no existe certeza sobre el control de los hombres sobre las máquinas, por lo menos, debe garantizarse la seguridad de sus usuarios.

En esta medida, si bien la tecnología es un aliado para el progreso de la sociedad, su proceso de perfeccionamiento no puede desatender en justa proporción su desarrollo jurídico, donde se debe prestar atención a que las nuevas tecnologías no sobrepasen la capacidad de control humano ni generen un nuevo factor en la brecha social digital debido a la dificultad para acceder a ellas.

Entender la Inteligencia Artificial como la capacidad de las máquinas previamente programadas para la ejecución de tareas implica delimitar su actuación, para que la ejecución de tales acciones no socave derechos fundamentales, pues ante el desconocimiento del contexto -pese a una programación previa- se constituye en un instrumento susceptible de supervisión humana; por lo cual su ejercicio automatizado no resulta del todo eficaz.

El desarrollo de la Inteligencia Artificial y su posterior interacción con la sociedad debe estar contenido dentro de unos estándares éticos y jurídicos que regulen su comportamiento, entendiendo que, si bien se trata de una máquina que responde a una programación de algoritmos y criterios generales, sus actuaciones implican la imposición de obligaciones ante la sociedad, bajo a un contexto que se erige en aspectos demográficos particulares.

En todo lo anterior debe considerarse además la capacidad de estas máquinas de aprender más allá de su programación y la tendencia que empiezan a tener en su auto programación y toma de decisiones, por lo que debería considerarse la programación de límites que impidan que estas tecnologías, diseñadas para el bien común, se conviertan en una herramienta perjudicial para la humanidad.

La integración de la Inteligencia Artificial a los espacios sociales del siglo XXI es innegable y ya no tiene marcha atrás. Los grandes beneficios que representa en el campo de la medicina, la educación, la asesoría jurídica, la atención al público, el comercio, la economía e, incluso, la gestión de la vida diaria, hacen que su expansión sea cada vez más solicitada y, por ende, acelerada.

No obstante, a diferencia de otras tecnologías, sus capacidades de análisis, predicción, manipulación de datos y gestión de información la convierten en un arma de doble filo que exhorta a la sociedad a sostener discusiones éticas sobre su implementación y afectación a los derechos humanos, civiles y económicos. Para ello, se insiste en la urgencia de políticas de regulación de estas tecnologías, así como en la necesidad de autorregulación desde las mismas compañías generadoras, como actores fundamentales del avance tecnológico y social.

Dentro de los factores a tener en cuenta para esta legislación de la IA, se destaca, entre otras, la importancia de velar por un diseño ético, donde se tengan en cuenta los contextos en los que se desenvuelve y utiliza esta tecnología; la capacidad de limitar los algoritmos para que aún sean controlados por humanos, a través de auditorías o funciones limitadas; la protección de los derechos de los usuarios y de sus datos; así como la revisión de los derechos digitales que garantizan tanto el derecho de acceso a estas tecnologías como la limitación de acceso que estas tecnologías tienen hacia las vidas de sus usuarios.

En síntesis, el llamado es a desarrollar una Inteligencia Artificial al servicio de la humanidad, que mejore la calidad de vida de los usuarios, pero a desarrollarla con responsabilidad y conciencia de sus impactos, adelantándose a sus posibles desenlaces y poniendo límites a su desarrollo descontrolado y desmedido para garantizar que realmente sean una extensión de la humanidad y no su hecatombe.

Referencias

Abdul, A. (2020) Challenges for legal education in the era of I.R.4.0. UUM Journal of Legal Studies, 11(2), 27-51. https://doi.org/10.32890/uumjls.11.2.2020.7731Links ]

Aguirre, A., & Manasía, N. (2015). Derechos humanos de cuarta generación: in clusión social y democratización del conocimiento. Télématique, 14(1), 2-16. https://www.redalyc.org/pdf/784/78435427002.pdfLinks ]

Al-Abdullatif, A., Al-Dokhny A. & Drwish A. (2023) Implementing the Bashayer chatbot in Saudi higher education: measuring the influence on stu- dents' motivation and learning strategies. Front. Psychol. 14(1129070). https://doi.org/10.3389/fpsyg.2023.1129070Links ]

Aparici, R., Bordignon, F., & Martínez, J. (2021). Alfabetización algorítmica basa da en la metodología de Paulo Freire. Perfiles Educativos, 43(Especial), 36-54. https://doi.org/10.22201/iisue.24486167e.2021.Especial.61019Links ]

Arbeláez-Campillo, D., Villasmil, J. & Rojas-Bahamón, M. (2021). Inteligencia ar tificial y condición humana: ¿Entidades contrapuestas o fuerzas com plementarias? Revista de Ciencias Sociales, 27(2), 502-513. https://doi.org/10.31876/rcs.v27i2.35937Links ]

Arora, C., & Sarkar, D. (2023). Auditing Artificial Intelligence (AI) as a New La- yer of Mediation: Introduction of a new black box to address another black box. Hipertext.net, (26), 65-68. https://doi.org/10.31009/hipertext.net.2023.i26.10Links ]

Artiles-Rodríguez, J., Guerra-Santana, M., Aguiar-Perera, M. V., & Rodríguez-Pu lido, J. (2021). Agente conversacional virtual: la inteligencia artificial para el aprendizaje autónomo. Pixel-Bit. Revista De Medios Y Educación, 62, 107-144. https://doi.org/10.12795/pixelbit.86171Links ]

Astudillo Fernández, G. E., Ávila Mahecha, L. D., Bernhard Nogueira, S. P., Fra- gozo Oñate, M. L., Garay Nuncira, A. C., Jiménez Zuluaga, L. F., Motta Burbano, M. J., & Prada Vanegas, A. (2020). Contribución tecnológica al acceso a la justicia: un chatbot para el agenciamiento de necesidades jurídicas. En M. L. Torres Villarreal & P. M. Iregui-Parra(Eds.), Diálogos interdisciplinarios sobre los problemas de la justicia en Colombia (pp.1-34). Editorial Universidad del Rosario; Fundación Hanns Seidel. https://doi.org/10.12804/urosario9789587845617Links ]

Auqui, J. (2021). Chatbot del proceso de aprendizaje universitario: una revisión sistemática. Alpha Centauri, 2(2), 29-43. https://doi.org/10.47422/ac.v2i2.33Links ]

Ayerbe, A. (2020). La ciberseguridad y su relación con la inteligencia artificial. ARI Análisis del Real Instituto Elcano ( ARI ), (128). https://www.realinstitutoelcano.org/analisis/la-ciberseguridad-y-su-relacion-con-la-inteligencia-artificialLinks ]

Ayuso, D. & Gutiérrez, P. (2022). La Inteligencia Artificial como recurso educativo durante la formación inicial del profesorado. RIED-Revista Iberoameri cana de Educación a Distancia, 25(2), 347-358. https://doi.org/10.5944/ried.25.2.32332Links ]

Barrio Andrés, M. (2021). Génesis y desarrollo de los derechos digitales. Re vista De Las Cortes Generales, (110), 197-233. https://doi.org/10.33426/rcg/2021/110/1572Links ]

Benavides Román, A. & Chipana Fernández, Y. (2021). Competencias digitales en adultos mayores y acceso a la justicia: una revisión sistemática. Re vista de Derecho, 6, (1), https://doi.org/10.47712/rd.2021.v6i1.121Links ]

Benet, M., Zafra, S. & Quintero S.. (2015). La revisión sistemática de la literatura científica y la necesidad de visualizar los resultados de las investi gaciones. Revista Logos, Ciencia & Tecnología, 7(1), 101-103. https://doi.org/10.22335/rlct.v7i1.232Links ]

Borbón Rodríguez, D.A., Borbón Rodríguez, L.F. & Laverde Pinzón, J. (2020). Análisis crítico de los NeuroDerechos Humanos al libre albedrío y al acceso equitativo a tecnologías de mejora. Ius et Scientia, 6 (2), 135-161. https://doi.org/10.12795/IETSCIENTIA.2020.i02.10Links ]

Briceño, L. & Barrios, R. (2022). Tecnologías, educación venezolana, automatis mos y creciente virtualidad: matices de una nueva era. Revista de Cien cias Sociales (Cr), 2(176), 29-48. https://doi.org/10.15517/rcs.v0i176.52735Links ]

Cabanelas, J. (2019). Inteligencia artificial ¿Dr. Jekyll o Mr. Hyde? Mercados y Negocios, 1(40), 5-22. https://doi.org/10.32870/myn.v0i40.7403Links ]

Comisión Europea. (2020). Libro blanco sobre la inteligencia artificial: Un en foque europeo orientado a la excelencia y la confianza. https://ec.europa.eu/info/publications/white-paper-artificial-intelligence-euro- pean-approach-excellence-and-trust_enLinks ]

Cortina, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas , ( 96 ), 379-394. http://boe.es/biblioteca_ju- ridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394Links ]

Corvalán, J. (2018). Inteligencia artificial: retos, desafíos y oportunidades - Prometea: la primera inteligencia artificial de Latinoamérica al servicio de la Justicia. Revista de Investigagoes Constitucionais, 5(1), 295-316. https://doi.org/10.5380/rinc.v5i1.55334Links ]

Cossio, J. & Ugalde, V. (2023). Transferencias y justicia intergeneraciona les. Clave OP224. 1a. Edición [ Links ]

Cova, E. (2022). Derechos Humanos y Derechos Digitales en la Sociedad de la Información. Revista DH/ED: derechos humanos y educación, 1(6), 61 80. https://revistaderechoshumanosyeducacion.es/index.php/DHED/article/view/74Links ]

De Oliveira Calixto, D., (2019). Memes na internet: entrelazamientos entre a “zoeira” de estudantes e a apropriazao do genero discursivo na escola. Periferia, 11(2), 131-152. https://doi.org/10.12957/periferia.2019.36457Links ]

De Souza Oliveira, A., (2019). Notas sobre inclusao digital no espado escolar a luz dos usos dos memes. Periferia , 11(1), 214-230. https://doi.org/10.12957/periferia.2019.37040Links ]

Dolin, V. (2018). Concept of “Fourth generation of human rights”: attempt of philosophical and anthropological rationale. Antonomies, 18(4), 7-20. http://dx.doi.org/10.17506/ryipl.2016.18.4.720Links ]

Domínguez Álvarez, J. (2021). Internet y nuevas tecnologías como punta de lanza para la revitalización de territorios rurales despoblados. La ne cesaria reconstrucción de la idea de servicio público. Revista Digital de Derecho Administrativo (26). 91-124. http://dx.doi.org/10.18601/21452946.n26.04Links ]

Esparza, G., Silva, G., & Torres, M. (2016). Resultados del análisis del proce samiento de lenguaje natural con técnicas de Inteligencia Artificial en la generación de agentes inteligentes conversacionales. Avanzada Científica, 19(1), 66-83. https://www.avanzada.idict.cu/avanzada/article/view/564Links ]

Esquivel, L. y Zambrano, J. (2022). Derechos y deberes en la inteligencia artifi cial: dos debates inconclusos entorno a su regulación. Nuevo Derecho, 18(31), 1-17. https://doi.org/10.25057/2500672X.1479Links ]

Faralli, C. (2015). Protección de los derechos y las nuevas tecnologías. El caso de la genética en el ámbito de los derechos de la era tecnológica. Opción, 31(76), 15-39. https://produccioncientificaluz.org/index.php/opcion/article/view/19745Links ]

Fernández Bermejo, D. & Martínez Atienza, G. (2018). Ciberseguridad, Ciberespacio y CiberdelincuenciaLinks ]

Fernández-Ferrer, M. (Ed.). (2023). Chatbots en educación: Tendencias actua les y desafíos futuros (Colección Transmedia XXI). LMI [ Links ]

Figueroa, J. (2023, julio 26). Los principales impulsores de la inteligencia ar tificial crean un organismo para autorregularse. Hipertextual. https://hipertextual.com/2023/07/los-principales-impulsores-de-la-inteligencia-artificial-crean-un-organismo-para-autorregularseLinks ]

Flantrmsky, H. & Flantrmsky, O. (2020). Una aproximación desde Turing y Deleuze. Interfaces numériques, 9(1). https://doi.org/10.25965/interfaces-numeriques.4103Links ]

Galindo, A. (2019). Derechos digitales: una aproximación a las prácticas discur sivas en internet desde la etnografía virtual. Paakat: Revista de Tecno logía y Sociedad, (16), 1-18. https://doi.org/10.32870/Pk.a9n16.359Links ]

García, L. (2017). Inteligencia artificial, la herencia de Alan Turing. Ciencia UNAM. https://ciencia.unam.mx/leer/631/inteligencia-artificial-la-herencia-de-alan-turingLinks ]

García, M. (2022). Sobre la autonomía, la creatividad y las consideraciones éti cas de la inteligencia artificial en el arte contemporáneo. H-ART. Revista de historia, teoría y crítica de arte. (12), 17-40. https://doi.org/10.25025/ hart12.2022.04Links ]

García, B., Canavilhas, J. & Vázquez, J. (2023). Algoritmos y comunicación: Re visión sistematizada de la literatura. Comunicar, 74(31), 9-21. https://doi.org/10.3916/C74-2023-01Links ]

Giró, X. & Sancho, J. (2022). La Inteligencia Artificial en la educación: Big data, cajas negras y solucionismo tecnológico. Revista Lationoamericana de Tecno logía Educativa, 21(1),129-145. https://doi.org/10.17398/1695-288X.21.1.129Links ]

Guerrero, R. (2021). Cuarta generación de derechos humanos y las tecnologías de la información y la comunicación. En J. Dante Haro Reyes & G. Cer vantes Medina (Coords.), Una aproximación a los derechos universita rios. Universidad de Guadalajara [ Links ]

Han, Byung-Chul. (2014). En el enjambre. Herder [ Links ]

Handini, D., Ming Yeong , T. & Vui Hong, L. (2004). System integration of NeuroBot: a skull-base surgical robotic system. IEEE Conference on Robotics, Automation and Mechatronics,(1), 43-48. https://doi.org/10.1109/RAMECH.2004.1438889Links ]

Ibarra, G. (2023, 14 de agosto). AI en EE. UU.: ¿Es la autorregulación la res puesta?Asuntos Legales. https://www.asuntoslegales.com.co/analisis/gabriel-ibarra-pardo-558821/ai-en-ee-uu-es-la-autorregulacion-es-la-respuesta-3677633Links ]

Ishengoma, F. (2022). Artificial Intelligence in Digital Health: Issues and Dimen- sions of Ethical Concerns. Innovación y Software, 3(1), 81-108. https://doi.org/10.48168/innosoft.s8.a48Links ]

Ivanii, O., Kuchuk, A., & Orlova, O. (2020). Biotechnology as Factor for The Fourth Generation of Human Rights Formation. Journal of History Culture and Art Research, 9(1), 115-121. https://doi.org/10.7596/taksad.v9i1.2540Links ]

Kartashkin, V. (2022). Digital human rights: International-legal and social dimensions. RUDN Journal of Sociology, 22(4), 949-962. https://doi.org/10.22363/2313-2272-2022-22-4-949-962Links ]

Lane, L. (2023). Preventing long-term risks to human rights in smart cities: A critical review of responsibilities for private AI developers. Internet Policy Review, 12(1), 1-28. https://doi.org/10.14763/2023.1.1697Links ]

Larrondo, M. & Grandi, N. (2021). Inteligencia Artificial, algoritmos y libertad de expresión. Universitas-XXI, Revista de Ciencias Sociales y Humanas, (34), 177-194 [ Links ]

Lassi, A ., (2022). Implicancias éticas de la inteligencia arti ficial. Tecnologías y producción de noticias. InMediaciones de la Comu nicación, 17(2), 153-169. https://doi.org/10.18861/ic.2022.17.2.3334Links ]

Letelier Loyola, E. (2019). Acceso a la justicia y brecha digital en los adultos mayores. Informe sintético sobre la cuestión en Chile. Trayectorias Hu manas Trascontinentales, (5). https://doi.org/10.25965/trahs.1374Links ]

Lugo, M. T., Ithurburu, V. S., Sonsino, A., & Loiacono, F. (2020). Políticas digita les en educación en tiempos de Pandemia: desigualdades y oportuni dades para América Latina. Edutec. Revista Electrónica De Tecnología Educativa, (73), 23-36. https://doi.org/10.21556/edutec.2020.73.1719Links ]

Lupo, G. (2022). The ethics of Artificial Intelligence: An analysis of ethical fra- meworks disciplining AI in justice and other contexts of application, Oñati Socio-Legal Series, 12(3), 614-653. https://doi.org/10.35295/osls.iisl/0000-0000-0000-1273Links ]

Martel, C. (2023). Inteligencia artificial vs. crecimiento económico. Innovación Empresarial, 3(2), e28. https://doi.org/10.37711/rcie.2023.3.2.28Links ]

Martínez, J. (2014). La cuarta ola de Derechos Humanos: los derechos di gitales. Revista Latinoamericana De Derechos Humanos, 25(1), 15-45. https://www.revistas.una.ac.cr/index.php/derechoshumanos/article/view/6117Links ]

Mazón, R. (2021). Un chatbot sobre cuestiones sintácticas: Una propuesta de ayuda en el aula de primero de bachillerato. Alcalibe: Revista Centro Asociado a la UNED Ciudad de la Cerámica, (21), 83-110 [ Links ]

Melia, M., & Ilario, A. (2022). Reviewing literature on museum service quality: A conceptual framework. In F. Bifulco & M. Tregua (Eds.), Handbook of research on museum management in the digital era (pp. 37-55). IGI Global. https://doi.org/10.4018/978-1-7998-9656-2.ch003Links ]

Mendoza, E. (2023). Formular preguntas para comprender las respuestas: ChatGPT como agente conversacional en el aprendizaje de español como segunda lengua. MarcoELE: Revista de Didáctica Español Lengua Extranjera, (36), 1-18. https://marcoele.com/chatgpt-como-agente-conversacionalLinks ]

Moher, D., Liberati, A., Tetzlaff, J., Altman, D. G., & PRISMA Group (2020). Preferred reporting items for systematic reviews and meta-analyses: the PRISMA statement. PLoS medicine, 6(7), e1000097. https://doi.org/10.1371/journal.pmed.1000097Links ]

MongeL. & Ávalos, C. (2020). BOT0210, una herramienta de apoyo a la do cencia. Experiencia de la Cátedra Tecnologías de la Información de la UNED, Costa Rica. Innovaciones Educativas, 22(Especial), 188-199. https://doi.org/10.22458/ie.v22iEspecial.3196Links ]

Mora-Chavarría, J., & González-Matamoros, R. (2021). Inclusión digital de la persona adulta mayor: Una revisión documental. Revista Latinoame ricana De Derechos Humanos, 33(1), 211-234. https://doi.org/10.15359/rldh.33-1.11Links ]

Morales, P. (2018). Entre el prisma discursivo y el ciberhumanismo: algunas reflexiones sobre Derechos Humanos de cuarta generación. Franciscanum, 60(169), 39-86. https://doi.org/10.21500/01201468.3692Links ]

Morán, A., (2021). Responsabilidad penal de la Inteligencia Artificial (IA). ¿La próxima frontera? IUS. 15(48), 289-323. https://doi.org/10.35487/rius.v15i48.2021.706Links ]

Munévar, C. (2016) Los sujetos de las futuras generaciones: ¿quiénes son los titulares de derechos intergeneracionales ambientales? Universidad de Manizales. Opción, 32(79), 184-196. https://produccioncientificaluz.org/index.php/opcion/article/view/21251Links ]

Murray, D. (2020). Using Human Rights Law to Inform States' Decisions to Deploy AI. AJIL Unbound, 114, 158-162. doi: https://10.1017/aju.2020.30Links ]

Negrete-Martínez, J. Cruz-Estrada, R., & Negrete-Yankelevich, S. (2015). Prerrequisitos para un dispositivo de cabeza neurobótica. Instituto de In vestigaciones Biomédicas, Universidad Nacional Autónoma de México. http://www.uv.mx/eneurobiologia/vols/2015/12/12.htmlLinks ]

Nolan, D., Maryam H. & Kleinman M . (2024). La urgente pero difícil tarea de regular la inteligencia artificial.Amnistía Internacional. Amnesty Tech.https://www.amnesty.org/es/latest/campaigns/2024/01/the-urgent-but-difficult-task-of-regulating-artificial-intelligenceLinks ]

Ontiveros, E., & López, V. (Coord.). (2018). Economía de los datos. Riqueza 4.0. Fundación Telefónica. https://www.fundaciontelefonica.com/cultura-digital/publicaciones/624Links ]

Organización de las Naciones Unidas [ONU]. (1948, 10 de diciembre). Declara ción Universal de los Derechos Humanos (Resolución 217 A [III]).https://www.refworld.org/es/leg/resolution/unga/1948/es/11563Links ]

Paladino, M. S., (2021). Cuidado e inteligencia artificial: una reflexión necesaria. Persona y Bioética, 25(2), 1-11. https://doi.org/10.5294/pebi.2021.25.2.8Links ]

Pari-Bedoya, I.N.; M. de la A ; Vargas-Murillo, A. R., & Huanca-Arohuanca, J. W. (2021). ¿Explotados o autoexplotados?: Sobre el concepto de autoexplotación en la sociedad del rendimiento de Byung-Chul Han. Revista Internacional de Investigación en Ciencias Sociales, 17(2), 433-448. https://doi.org/10.18004/riics.2021.diciembre.433Links ]

Perepolkin, S., Perepolkin, D. & Averianova, M. (2021). Typology of the fourth generation of human rights. JILC (Journal of International Legal Communication), 1(1), 91-101. https://doi.org/10.32612/uw.27201643.2021.1Links ]

Piedra, J. (2022). Descolonizando la «Ética de la Inteligencia Artificial». Dilemata, (38), 247-258. https://www.dilemata.net/revista/index.php/dilemata/article/view/412000447Links ]

Potapchuk, A., Popovych, T., Kostenko, Y., Baryska, Y. & Levkulych, V. (2020). The right to clone: some aspects of the contemporary discourse. Wiad Lek, 73(3), 597-602. https://pubmed.ncbi.nlm.nih.gov/32285841Links ]

RAE. (2024). Regular. https://dle.rae.es/regularLinks ]

Razmetaeva, Y., Barabash, Y. & Lukianov, D. (2022). The Concept of Human Rights in the Digital Era: Changes and Consequences for Judicial Practice. Access to Justice in Eastern Europe, 3(15), 41-56. https://doi.org/10.33327/AJEE-18-5.3-a000327Links ]

Rohrbein, Florian & Krichmar, Jeff. (2013). Value and Reward Based Learning in Neurobots. https://doi.org/10.3389/fnbot.2013.00013Links ]

Ruiz, M. (2023). «Los bots conversacionales pueden hacer cambiar la manera de aprender y de enseñar». UOC. https://www.uoc.edu/es/news/2023/014-maite-fernandez-bots-conversacionalesLinks ]

Ruiz, E. (2023). La revolución de la inteligencia artificial en la educación: una reseña de ChatGPT: https://chat.openai.com/.Revista de Estudios e Investigación en Psicología y Educación, 10(1), 156-160. https://doi.org/10.17979/reipe.2023.10.1.9594Links ]

Sáez-Fernández, M. D., MuñozCarril, P.C., LópezGarcía, Á., FernándezGómez, E., & RodríguezConde, M.J. (2020). TestBots: aplicación de chatbots en evaluación de pruebas objetivas. En R. RoigVila(Coord.), Memorias del Programa de RedesI3CE de calidad, innovación e investigación en docencia universitaria. Convocatoria 201920 (pp. 769-774). Institut de Ciencies de l'Educació (ICE), Universitat d'Alacant. https://rua.ua.es/entities/publication/9a74f276-09f0-46b5-b25c-fc062034f87dLinks ]

Santana, D. (2019). Memes e a educa^ao de jovens e adultos. Periferia, 11(2), 268-290. https://doi.org/10.12957/periferia.2019.36856Links ]

Sapinski, A. (2022). Analysis of the role of international organizations in the process of regulating the rights of the fourth generation: the main directions, the challenges of the time. Futurity Economics&Law, 2(2), 14 24. https://doi.org/10.57125/FEL.2022.06.25.02Links ]

Shevchuk, O., Bululukov, O., Lysodyed, O., Mamonova, V., & Matat, Y. (2021). Hu man right to virtual reality in the healthcare: legal issues and enforcement problems. Juridical Tribune, 11(special issue), 302-315. https://doi.org/10.24818/TBJ/2021/11/SP/03Links ]

Simon, H. A. (1972). Theories of bounded rationality. En C.B. McGuire & R. Radner (Eds.), Decisions and organization (pp. 161-176). North-Holland Publishing Co [ Links ]

Sonmez, M. (2020, diciembre). Shaping a Data Economy: The world needs a new system of governance for the buying and selling of data. Finance & Development, 57(4). International Monetary Fund. https://www.imf.org/en/Publications/fandd/issues/2020/12/shaping-a-data-economy-wefsonmezLinks ]

Suchacka, M., Muster, R., & Wojewoda, M. (2021). Human and machine creativity: social and ethical aspects of the development of artificial intelligence. Creativity Studies, 14(2), 430-443. https://doi.org/10.3846/cs.2021.14316Links ]

Surjandari, I., Zagloel, T., Harwahyu, R., Asvial, M., Suryanegara, M., Kusrini, E., Kartohardjono, S., Sahlan, M., Putra, N., & Budiyanto, M. (2022). Accelerating Innovation in The Industrial Revolution 4.0 Era for a Sustainable Future. International Journal of Technology. 13(5), 944-948. https://doi.org/10.14716/ijtech.v13i5.6033Links ]

Terrones, A. (2020). Inteligencia artificial, responsabilidad y compromiso cívico y democrático. Revista Iberoamericana de Ciencia, Tecnología y So ciedad - CTS, 15(44), 253-276. https://ojs.revistacts.net/index.php/CTS/article/view/166Links ]

Trikoz, E. & Gulyaeva, E. (2021). Ecological cases of the ECtHR and the environmental risk of GMO. E3S Web of Conferences, 244(12024), 1-11. https://doi.org/10.1051/e3sconf/202124412024Links ]

UNESCO. (2022). Recomendación sobre la ética de la inteligencia artificial [Documento de programa o de reunión]. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spaLinks ]

Urrutia, G., & Bonfill, X. (2014). Revisiones sistemáticas, una herramien ta clave para la toma de decisiones clínicas y sanitarias. Revista Es pañola de Salud Pública, 88(1), 1-3. https://dx.doi.org/10.4321/S1135- 57272014000100001Links ]

Valdés, E. (2015). Bioderecho, daño genético y derechos humanos de cuar ta generación. Boletín mexicano de derecho comparado, 48(144), 1197 1228. https://doi.org/10.22201/iij.24484873e.2015.144.4964Links ]

Verdegay, J., Lamata, M., Pelta, D., & Cruz, C. (2021). Inteligencia artificial y pro blemas de decisión: la necesidad de un contexto ético. Suma de Ne gocios, 12(27), 104-114. https://doi.org/10.14349/sumneg/2021.V12.N27.A2Links ]

Verona, J. (2022). La ética de la inteligencia artificial. Bioquímica y Patología Clínica, 86(3), 20-21. https://doi.org/10.62073/bypc.v86i3.225Links ]

Vidovic, J. (2021). Inteligencia artificial: Un futuro inteligible. Cuestiones Polí ticas, 39(68), 16-20. https://www.produccioncientificaluz.org/index.php/cuestiones/article/view/35389Links ]

Villalba, J. (2020). Algor-ética: la ética en la inteligencia artificial. Blockchain inteligencia artificial, (1), 21-40. https://doi.org/10.22529/rbia.2020.1(1)02Links ]

Villalobos Antúnez, J. V., Hernández, J. P., & Palmar, M. (2012). El Estatuto bioético de los Derechos Humanos de Cuarta Generación. Frónesis: Revista de Filosofía Jurídica, Social y Política, 19(3), 350-371. https://www.corteidh.or.cr/tablas/r32925.pdfLinks ]

Vita, S., & Mennitto, A. (2019, septiembre). NEUROBOT: A psychoedutainment tool to perform neurofeedback training in children with ADHD. En Proceedings of the First Symposium on PsychologyBased Technologies. Nápoles, Italia [ Links ]

Xu, N. & Wang, K. (2019) Adopting robot lawyer? The extending artificial intelligence robot lawyer technology acceptance model for legal industry by an exploratory study. Journal of Management & Organization, 27(5), 867-885. https://doi.org/10.1017/jmo.2018.81Links ]

Zabala, T. (2021). La ética en inteligencia artificial desde la perspectiva del derecho. Via Inveniendi Et Iudicandi, 16(2), 1-28 [ Links ]

Recibido: 01 de Abril de 2024; Revisado: 01 de Junio de 2024; Aprobado: 01 de Agosto de 2024

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons