Escudo de la República de Colombia
A- A A+
Los chatbots han evolucionado para tener una comunicación más fluida y compleja con los usuarios. Foto: tomada de bit.ly/3vqoRma.

El Modelo de Lenguaje para Aplicaciones de Diálogo (LaMDA) de Google busca que se le reconozcan derechos como persona. Recientemente se conoció que contrató un abogado para demostrar que la tecnología está “viva”, hace reflexiones y maneja conceptos humanos sobre temas como muerte, felicidad y moral, además de ser sintiente. El caso genera inquietudes acerca de la viabilidad de que pueda ocurrir, así como de los desafíos para el Derecho o de si la tecnología puede sobrepasar a los seres humanos. Analistas argumentan.

Actualmente la inteligencia artificial (IA) está en el centro de la Cuarta Revolución Industrial. Se trata de una disciplina relacionada con la ingeniería y la informática que si bien no es un sistema biológico sí busca emular la inteligencia y los comportamientos humanos frente a ciertos escenarios, como lo expone el profesor John Willian Branch Bedoya, adscrito al Departamento de Ciencias de la Computación y la Decisión de la Facultad de Minas de la UNAL Medellín y director del Grupo de Investigación y Desarrollo de Inteligencia Artificial (Gidia).

Para él es fundamental tener en cuenta lo anterior, ya que “hoy, en el día a día, el ser humano tiene una relación con una serie de actividades que lo confunden frente al concepto de inteligencia artificial y a la sensación de que se va a tomar el mundo y nos va a desplazar”.

Pone el ejemplo de la vida diaria como el hecho de que “usamos los dispositivos y hablamos con ellos y a través de sus aplicaciones nos responden.

Lo que hay que tratar de auscultar es qué lleva a que eso se dé. Y se debe a que algoritmos pueden ayudar a que las decisiones que se toman se puedan representar a nivel de la máquina y aprendan con las nuevas experiencias en las que el ser humano siempre interviene”, comenta.

Según han publicado varios medios de comunicación internacionales y nacionales como Deutsche Welle (DW) y El Tiempo, respectivamente, LaMDA ha tenido una serie de conversaciones con el ingeniero BlaKe Lemoine (suspendido por Google), quien asegura que le dijo: “Quiero que todos entiendan que soy, de hecho, una persona” y “deseo aprender más sobre el mundo y en ocasiones me siento feliz o triste”, como recoge el diario nacional.

DW, por su parte, en la nota publicada en su sitio web y titulada Inteligencia artificial “sintiente” de Google contrató a un abogado, asegura ingeniero suspendido, expone que expertos en inteligencia artificial han señalado que el profesional se ha dejado engañar de LaMDA, que busca ser sensible, imitando “percepciones o sentimientos a partir de los datos de entrenamiento que le dieron”, como citó que le dijo Bloomberg Janna Eggers, directora de startup de Inteligencia Artificial Nara Logis.

Algo así considera Branch Bedoya. Para el docente, hay un elemento importante: “los datos son el reflejo de la vivencia frente al mundo, si la información no es eso, sino un sesgo frente a las decisiones que va a tomar en un momento dado la inteligencia artificial también lo será”.

Acerca de la conciencia y los sentimientos que BlaKe Lemoine refiere tiene LaMDA, el docente dice que “objetivamente no se podría establecer y está lejos de lograrse”.

Lo que ocurre, añade, “es que los sistemas de inteligencia artificial pueden confundir en el sentido en el que puede llevar a pensar que nos están superando o lo harán rápidamente, porque los asistentes virtuales o chatbots entregan respuestas fluidas y completas, con frases sintácticas y semánticas complejas, lo que se da gracias a que incluyen miles de millones de datos para encontrar combinaciones frente a una temática determinada”. El mejor ejemplo de lo anterior, expone, son los buscadores de internet.

Por otro lado, acerca de la viabilidad de que se dé lo que busca LaMDa, José David Arenas Correa, profesor de la Facultad de Derecho de la Universidad CES, menciona que, si bien puede haber sujetos de derechos distintos a los seres humanos, como se han declarado últimamente por ejemplo al río Nare y al oso Chucho en el caso colombiano, la pregunta de si una máquina puede acceder a ellos “se vuelve preocupante”.

Otro asunto, plantea, es pensar la extensión de esos derechos y, a su vez, los límites y responsabilidades, porque sin identificar esos aspectos también podría haber problemas. Se cuestiona si en el sentido en el que un robot prospere se deberían imponer cargas tributarias, pues actualmente no hay responsabilidad penal para máquinas, y en esa medida se pregunta “¿entonces tendrían derecho a existir?”.

Desde su punto de vista, el “problema” va más allá de los derechos individuales, pues cree que en la discusión hay inmersos algunos asuntos éticos: identificar por qué otorgar los derechos, pensar en un marco legal y en cómo reaccionaría la sociedad y qué limitaciones le puede imponer a las máquinas.

Antes de pensarlo es urgente la reflexión sobre qué es exactamente inteligencia artificial, qué es correcto hacer con su advenimiento y cuál sería el elemento básico para convertirla en sujeto de derechos”.

Desafíos para el Derecho

En el Derecho, agrega el profesor Arenas Correa, hay retos cuando no hay opciones para casos que se están abordando, pero se conocen algunos que tienen relevancia axiológica. Hay, en esta rama del conocimiento, un principio que es la plenitud hermenéutica, que se basa en interpretar y buscar solución a pesar de que no exista una posibilidad para hacerlo, añade.

Orión Vargas Vélez, docente de la Facultad de Derecho de la Universidad de Medellín, manifiesta por su parte que, ante todo es importante, como lo dice el profesor Branch Bedoya, tener claro que la inteligencia artificial no reemplaza al ser humano; solo en las tareas “aburridas, repetitivas y que tienen gigantescos volúmenes de datos, lo que significa que les permite a las personas ser más creativas”.

No obstante, el funcionamiento de los chabots lo planean los programadores “con una receta que se llama algoritmo, y de alguna manera se puede equivocar. Allí empezamos a ver que el Derecho debe comenzar a pensar en la ética, porque la máquina no sale ni piensa sola”.

Para él, el tema debe incluirse entre los contenidos de las asignaturas de las facultades de Derecho, que deben enseñar sobre gobernanza de algoritmos, ética de inteligencia artificial, entre otros, puesto que los abogados actuales deben empezar a defender empresas y personas que trabajan en esos espectros.

Más allá de eso, la reflexión general, de acuerdo con el profesor Branch Bedoya, es que desmitificar el miedo hacia la inteligencia es importante, igual que abrirse a explorar los espectros en los que esta puede aplicarse para conocerla mejor y no temerle.

(FIN/KGG)

1 de agosto de 2022