En plan experimental he armado "Relmo", sistema de "análisis de sentencias" que corre sobre la "carrocería" de Chat GPT (que en la versión 4.0 habilita el armado de chats "adaptados" para fines específicos).
Luego de setear y buscar variables, les muestro el modelo que obtiene resultados todavía dispares, pero altamente competentes: en este video van tres ejemplos "en vivo".
Les linkeo los documentos generados por Relmo.
- En el primer ejemplo, analiza el fallo "Cine Callao" (acá completo) y devuelve esta síntesis.
- En el segundo ejemplo lo alimentamos con un adjunto que contiene un célebre fallo de la Corte Suprema de Sudáfrica, Grootboom de 2000. Otra vez, Relmo hace un gran trabajo (pueden ver en el enlace Grootboom (2000). Gran trabajo en un fallo complejo sobre derecho a la vivienda.
- En el tercer ejemplo del video le transcribimos un fallo reciente de la Suprema Corte de Buenos Aires, sobre agravante de "vínculo" en el homicidio. Resultado: el análisis es correcto y bastante completo.
Potencialidades y funciones.
Relmo fue "algoritmado" para hacer resúmenes de sentencias. No obstante, puede hacer (y muy bien) algunas cosas más, como imaginar preguntas ("FAQs") sobre el fallo y el tema del fallo, o dar "contexto" sobre el caso.
Si quieren operarlo, el link de OpenAI es este.
Terminos, condiciones, limitantes
- Para usar "Relmo" se requiere Chat GPT 4 lo que implica hoy por hoy una suscripción de 20 dólares (es un precio de Open AI, sobre el cual nada puedo hacer, y del que no "cobro"). Seguramente en algun momento va a haber opciones de Código Abierto.
- Los resultados "varían" en nivel de calidad (por eso es bueno repetir y ver la mejor versión). Casi todos los pequeños pifies en que incurre pueden suplirse con corrección y revisión humana (en el ejemplo de "Cine Callao", data el fallo en 1958 porque toma la fecha del dictamen de la procuración).
- Además de tener variación en el tiempo (a veces anda "rápido" y otras "lento"). Ocasionalmente "se tilda" y deja inconcluso el análisis. Es tecnología "experimental" en ese aspecto.
- Factores de complejidad: las sentencias "mosaico" de muchos votos (que también complican a humanos, por supuesto). Y la longitud: a partir de sentencias largas (mas de 60 páginas) se "nubla" y pierde precisión.
Más ejemplos
En otro ejemplo subimos la apuesta con un fallo del Tribunal Constitucional Alemán, Lüth de 1958. Relmo "resuelve" bien la sentencia "en bruto" (y en alemán) y hace una gran sintesis. Relmo masterclass.
También es bueno el análisis que hace del conocido fallo de desegragación escolar de la Suprema Corte de los EE.UU., Brown v. Board of Education (1954).
Aún en sentencias largas, densas y enroscadas, como "Fornerón" de la Corte Interamericana, puede dar respuestas realmente excelentes.
Coda
Tengo en desarrollo otros "primos" de Relmo que hacen cosas especificas (mucho mejor que un GPT genérico) que luego iré presentando. Sin generar humo -en IA marchan pari passu el humo y el pánico, ambos hijos de la sobrevaloración de un instrumento-, es un área que va a mejorar mucho y lo hará muy rápidamente.