¡HA VUELTO A PASAR! UN ABOGADO UTILIZA LA IA GENERATIVA y COMETE UN GRAVE ERROR.

¡HA VUELTO A PASAR! UN ABOGADO UTILIZA LA IA GENERATIVA y COMETE UN GRAVE ERROR.

Y esta vez de una forma que indica que es fácil caer en la confianza sobre la inteligencia Artificial, pensando que todo lo que nos ofrece, es real y certero.

Después del caso ocurrido con un abogado de Nueva York sancionado por un tribunal federal estadounidense en mayo por citar precedentes jurídicos ficticios, facilitados por un sistema de inteligencia artificial (ChatGPT), ha surgido un nuevo caso muy parecido, también en Estados Unidos, el cual es bastante llamativo.

En este nuevo caso, el protagonista es David Schwarch, un abogado defensor del ex asesor de un conocido político estadounidense (Donald Trump) que fue inhabilitado para ejercer la abogacía después de ser condenado por delitos electorales y fraudes fiscales.

Schwarch utilizó para la defensa y solicitud del levantamiento de la libertad condicional de su cliente, tres precedentes jurídicos generados por GOOGLE BARD, un sistema de inteligencia artificial de Google, que resultaron ser falsos.

El juez federal del Tribunal del Distrito Sur de Nueva York, exigió al letrado una «explicación detallada» de su conducta y alegaciones. Inicialmente, intentó evadir la respuesta alegando la confidencialidad del abogado-cliente, pero posteriormente aceptó su error, aclarando que había sido el ex asesor de Trump quien había encontrado los casos y se los había enviado para su revisión, lo cual no ocurrió.

En una carta enviada al juez el 22 de diciembre por el letrado, este explicaba que su cliente, inhabilitado como desde su condena en 2017, había realizado una investigación en fuentes abiertas para encontrar casos que apoyaran la posibilidad de levantar su libertad vigilada bajo circunstancias similares a las suyas, es decir, jurisprudencia aplicada a este caso.

La defensa del abogado Schwarch aclaró que el ex asesor de Trump y condenado, había utilizado GooglBard, pero, al no estar actualizado en las tendencias y riesgos de la tecnología legal, no se percató de que era un servicio de texto generativo que podía presentar citas y descripciones ficticias. Este creyó erróneamente que era un motor de búsqueda avanzado de jurisprudencia diferente a ChatGPT, que había utilizado exitosamente en otras ocasiones para encontrar información precisa en línea.

Por lo tanto, al desconocer que GoogleBard podía generar casos inexistentes y sin acceso a recursos legales estándar para verificar los casos, confiaron en que el equipo encargado de su defensa revisaría sus sugerencias antes de incluirlas en el escrito legal.

Desafortunadamente, es su letrado quien tenía la obligación de verificar la veracidad de dichos precedentes y que no realizó esa tarea.

No obstante, se sostiene en todo momento en presencia del Juez que todo fue un error por descuido, no por mala intención y mala fe, añadiendo que el argumento principal (la posibilidad de eliminar la medida impuesta) se confirmó con casos reales citados en el mismo escrito.

Lo cierto es que la actuación del letrado goza de ser un error vergonzoso, pero “aparentemente” involuntario y que, en última instancia, resultó intrascendente, ya que se corrigió antes de que pudiera inducir a error al tribunal. Por tanto, se considera que el ex asesor de Trump y defendido por este letrado en cuestión, no debería ser perjudicado por el error de éste y se solicita al tribunal clemencia y comprensión.

No Comments

Post A Comment