En el proceso tampoco se considera la Ley de Imprenta.
18/04/2023 11:13
Escuchar esta nota
Una Sala Constitucional del Tribunal Departamental de Justicia de Santa Cruz, en medio de una audiencia virtual, recurrió a la plataforma de inteligencia artificial ChatGPT para consultar criterios jurídicos y, de esta forma, definir una Acción de Privacidad, en el marco de los derechos humanos, que se había presentado contra tres periodistas de esa ciudad.
En este caso, la accionante es una mujer que, en marzo, había solicitado a los periodistas que difundan las imágenes que muestran las agresiones que habría sufrido de parte de un abogado y exfuncionario de Gobierno. Ahora, busca que esas fotografías se borren , explicó la abogada de la Asociación de Periodistas, Raquel Guerrero, informa Erbol.
Fue durante la audiencia virtual que uno de los tribunales compartió en pantalla las consultas que estaban realizando los vocales al ChatGTP, sobre imágenes difundidas en redes sociales.
De acuerdo al reporte, se hicieron las siguientes preguntas al ChatGPT:
- ¿Cuál es el interés público legitimo en caso de divulgación de fotos de una mujer de partes de su cuerpo en redes sociales como Facebook, por los medios de prensa y sin el consentimiento y/o autorización de esta”
- ¿En caso de no existir el consentimiento de la publicación de imágenes, videos y fotos de partes del cuerpo de una mujer por las redes sociales Facebook, se podría considerar la posibilidad de ordenar el borrado o baja de las mismas por parte del Tribunal de Garantías como una vulneración del derecho a la información?
En respuesta, el bot define que “la divulgación de fotos de partes del cuerpo de una mujer en las redes sociales, por los medios de prensa y sin su consentimiento o autorización, es una violación de la privacidad y la dignidad de la persona”.
Entonces resuelve que: “Es posible que el Tribunal de Garantías ordene el borrado o baja de estas imágenes para proteger los derechos fundamentales de la mujer afectada. Es importante tener en cuenta que la eliminación de estas imágenes no implica una censura o una restricción injustificada del derecho a la información. El Tribunal de Garantías debe evaluar cuidadosamente las circunstancias del caso y equilibrar los derechos en juego, y si se concluye que la eliminación de las imágenes es necesaria para proteger los derechos de la mujer afectada, entones esta medida sería justificada y proporcionada”.
La abogada Guerrero observó que las consultas estaban direccionadas, lo cual condicionó las respuestas. Señaló que,además, no se tomó en cuenta que la misma mujer había consentido y solicitado la publicación de las fotografías en ese entonces; también apuntó que los periodistas tuvieron el cuidado de poner sólo las imágenes de las lesiones y no revelar la identidad de la víctima, reporta Erbol.
“El hecho es una acción de privacidad que ha presentado una víctima de violencia doméstica, que ha sido golpeada por su pareja supuestamente, les contacta a los periodistas para que pongan su foto, ellos acceden a esta publicación, luego creo que ella se abuena con su pareja y al otro día ya la víctima pide que retiren su foto. Ellos responsablemente, salvaguardando la imagen de la víctima, publicaron partes de su foto, no así todo, sino las partes golpeadas, y en la publicación no ponen el nombre completo del agresor”, dijo.
Si bien el uso de la inteligencia artificial no está contemplado en el procedimiento constitucional, en criterio de la abogada Guerrero, su utilización tiene sus aspectos positivos como negativos.
Indicó que sería positivo utilizar la inteligencia artificial como “apoyo” de consulta para jueces y abogados, al igual que se podría utilizar el Google, sin embargo, considera que en este caso las preguntas fueron direccionadas.
Asimismo, la jurista tildó de errónea la decisión del Tribunal, tomando en cuenta que las fotos se difundieron a pedido de la víctima, cuando existió una denuncia de violencia, entre otros aspectos. De todas maneras, anunció que los periodistas cumplirán la determinación de borrar las fotografías.
Además, el juicio vulnera la Ley de Imprenta, que debe ser utilizada en cualquier proceso contra periodistas en el ejercicio de su profesión. Los vocales juzgan, desde el 17 de abril, a los periodistas independientes Marco Z., Ariel V. y Alberto R., acusados por violación de la privacidad por la vía penal.
“Nos sorprendimos nosotros porque no era la Ley de Imprenta, pensamos que los vocales lo iban a rechazar, pero no solo no rechazaron, sino que jugaron consultando a la inteligencia artificial”, expresó uno de los periodistas a Página Siete.
El periodista contó que luego del cuarto intermedio en que los vocales deberían deliberar, se hicieron las consultas al ChatGPT, robot que "decidió" las sanciones que se deberían aplicar, algo que fue calificado como “histórico” por los vocales.
“Volvieron y dijeron que iban hacer algo que nunca se vio en la justicia boliviana, que iban a hacer historia consultándole a la Inteligencia Artificial cuáles son las sanciones que nos tienen que dar y pusieron una computadora, donde un robot responde, como preguntándole a Google: cuál es la sanción que tienen que dar, y mediante eso, nos sancionaron. Nos quedamos asombrados, pensábamos que era una broma lo que estaba pasando”, relató.
Los mensajes generado por el ChatGPT. Fuente de las imágenes: Página Siete.
Mira la programación en Red Uno Play
12:25
14:00
15:00
16:30
17:00
18:55
12:25
14:00
15:00
16:30
17:00
18:55