Índice
Tomo I
Presentación de los autores
Primera parte
Inteligencia artificial: cuestiones generales
Capítulo 1
Conceptos, técnicas y clasificaciones. Impacto en los derechos humanos y limitaciones de la inteligencia artificial
Preludio. Bienvenidos a la era de la inteligencia artificial
Juan G. Corvalán
I. Cuando el coyote se transforma en correcaminos
II. ¿Qué hay de nuevo, viejo?
III. Tortuga, chaparrón, Usain Bolt, Flash y ChatGPT
IV. Un nuevo renacimiento basado en máquinas que simulan inteligencia humana
Inteligencia artificial: bases conceptuales para una aproximación interdisciplinar
Juan G. Corvalán, Laura Díaz Dávila y Gerardo I. Simari
I. Introducción
II. Las bases: datos, información, conocimiento y algoritmos
2.1. Datos
2.2. Información
2.3. Conocimiento
2.4. Algoritmos
2.5. De datos a conocimiento y de bases de datos a herramientas inteligentes
III. Las múltiples caras de la inteligencia artificial
3.1. Muchas formas de abordar “inteligencia artificial”
3.1.1. IA débil
3.1.2. IA fuerte
3.2. Un menú de definiciones de “inteligencia artificial”
3.2.1. Organización de Naciones Unidas (ONU)
3.2.2. Parlamento Europeo
3.2.3. Organización para la Cooperación y el Desarrollo Económico (OCDE)
3.2.4. Universidad de Stanford
3.2.5. Comisión Europea
3.2.6. Foros, cumbres y otros eventos nacionales e internacionales centrados en IA
IV. Dos ramas en la busca de la realización de la inteligencia artificial
4.1. Inteligencia artificial basada en conocimiento
4.1.1. Un ejemplo integrador
4.2. Inteligencia artificial basada en datos
4.3. Cajas negras y otras más negras. Deep learning
4.4. Aprendizaje profundo (deep learning) más autoaprendizaje autónomo
4.5. Aprendizaje automático y cajas blancas
V. ¿Cómo surgen los oráculos de la IA?
VI. Correlaciones, causalidad y predicciones de IA
Fundamentos antropológicos, éticos, filosóficos, históricos, sociológicos y jurídicos para la constitución universal de un Derecho de la Inteligencia Artificial (DIA)
Marcos López Oneto
I. Introducción
II. La cuarta revolución industrial y la era de la información como fuentes materiales del Derecho de la Inteligencia Artificial (DIA)
2.1. Caracterización de la 4RI
2.1.1. La cuarta revolución industrial en la era de la información
2.2. Las tecnologías de la cuarta revolución y en particular de la inteligencia artificial
2.2.1. ¿Qué es la inteligencia artificial?
2.2.2. Impacto de la IA en la sociedad
2.2.2.1. El impacto de la IA en el trabajo y en el empleo
2.2.2.2. El impacto en el curso evolutivo del homo sapiens sapiens y la humanidad
III. Fundamentos antropológicos, éticos y filosóficos para un Derecho de la Inteligencia Artificial (DIA)
3.1. Aproximación conceptual al transhumanismo
3.1.1. El transhumanismo como un neo-gnosticismo fundado en el tecnoptimismo
3.2. Ética para un Derecho de la Inteligencia Artificial (DIA): responsabilidad y precaución
3.2.1. Síntesis de la ética para un DIA
IV. Configuración universal del Derecho de la Inteligencia Artificial (DIA)
4.1. Una mirada a la ONU: AI for Good
4.2. Una mirada a Europa
4.3. Una mirada a EE.UU.
4.4. Para un Derecho de la Inteligencia Artificial (DIA)
4.4.1. El DIA como una manifestación de DIDH
4.4.1.1. Una concepción razonable de los principios jurídicos
4.4.1.2. Principios expresos y principios implícitos
4.4.2. Brevísima contextualización en materia de derechos humanos y derecho internacional de los derechos humanos (DIDH)
4.4.3. Los principios o leyes fundamentales de la IA
4.4.4. Inferencia de los principios del DIA
4.4.5. Efecto práctico jurídico básico
4.5. Delimitando campos entre el DIA y algunos campos cercanos: la informática jurídica, el derecho informático y artificial intelligence and law
4.5.1. Informática Jurídica (IFJ)
4.5.2. Derecho Informático (DIF)
4.5.3. Artificial Intelligence and Law
V. Conclusiones
Transhumanismo y derechos ¿humanos?
Andrés Gil Domínguez
I. Introducción
II. Digitalización
III. Transhumanismo y poshumanismo
IV. El transhumanismo y los derechos
V. ¿El homo sapiens es el todo o es solo el comienzo?
Inteligencia artificial bifronte: ¿libertad o esclavitud?
Henoch Aguiar
I. La nueva concentración del poder
II. La disyuntiva ética
III. La IA escala posiciones
IV. “El poder soy IA” (copyright Louis XIV)
V. La libertad atenazada por el Panóptico de Foucault y la navaja de Ockham
VI. Lucha y conquista de los derechos
VII. Hambre de Internet
VIII. Nuevas instancias de transparencia y gobernanza de la IA
IX. La inteligencia artificial responsable social (IARS)
X. La inteligencia artificial distribuida (IAD)
Más allá del juego de la imitación: las principales limitaciones de la inteligencia artificial
Juan G. Corvalán y María Victoria Carro
I. Introducción: subir la apuesta
II. De Alicia en el país de las maravillas a los loros estocásticos: la evolución del juego de la imitación
III. Loros estocásticos
3.1. Can I search your car? La forma en que el traductor de Google puede salvarnos de ir a la cárcel
3.2. No se puede llegar a la luna trepando árboles cada vez más altos
IV. Loros causales
4.1. Comer chocolate, ¿ganar más premios Nobel?
4.2. Causación e IA predictiva en el derecho
4.3. Más vale bueno por conocer, que malo conocido
4.4. Tres formas de abordar el problema de la causalidad (¿o suplirlo?) aplicando IA
V. Ventajas y desafíos de las formas de aprendizaje más populares
5.1. El juego del calamar y el aprendizaje por refuerzo de la IA
5.2. Aprendizaje por refuerzo a partir de la retroalimentación humana
VI. Cómo los mundos virtuales pueden contribuir al desarrollo de una inteligencia artificial generalizada
Capítulo 2
Inteligencia artificial generativa. Bots, chatbots y grandes modelos de lenguaje multipropósitos
Interludio. Willy Wonka, ChatGPT y la fábrica de datos sintéticos
Juan G. Corvalán
I. La caverna sintética
II. Los cuatro mosqueteros sintéticos. Voz, texto, imagen y video. Uno para todos, y todos para la IA generativa
III. Voces sintéticas: el nuevo super poder humano. Cantar y hablar lo que sea, cuando sea y cómo sea
¿Qué trae de nuevo la IA generativa?
Juan G. Corvalán
I. La revolución de los datos sintéticos
II. La versión 4.0 de la máquina de pensar de Raimundo Lulio de Jorge Luis Borges. Grandes modelos de lenguaje multipropósito y multimodales. ¿Qué son?, ¿cómo funcionan? y ¿en qué se diferencian de la inteligencia humana?
III. Transfer learning. “Algoritmos prepizza” para acelerar el aprendizaje y que se aproveche en otros ámbitos
IV. Mozart, Salieri y la IA generativa
V. El método socrático versión 4.0: PromptIAando todo, en todas partes al mismo tiempo
VI. Las cajas super negras de la IA generativa
VII. Muchos beneficios que conviven con lados oscuros
VIII. ¿Conocimiento sintético? Nuevos paradigmas de sobreinformación, desinformación e información falsa
Los nuevos desafíos. ChatGPT, Bard, Claude 2 y otros y ¿la autocensura? ¿Freedom GPT es soportable? La responsabilidad por las alucinaciones
Federico Álvarez Larrondo
I. La explosión llamada “ChatGPT”
II. Breve historia de los chatbots
III. Los modelos de lenguaje de gran tamaño (LLM)
IV. Las “alucinaciones” de los modelos LLM de texto
V. La “auto”censura de los LLM
VI. ¿Es “libre” un modelo generativo sin filtros?
VII. La responsabilidad por “alucinaciones”
VIII. El temor a los datos sintéticos como “verdad”
Infografía ¿Qué es un transformer?
Una nueva habilidad requerida en la era de la inteligencia artificial conversacional multimodal y multipropósito: el legal prompt engineering
Sebastián C. Chumbita
I. Introducción
II. La teoría de los juegos de la conversación
III. ¿Qué es el legal prompt engineering?
IV. La sinergia entre la teoría del juego de la conversación y el legal prompt engineering en agentes conversacionales
V. ChatGPT y la disrupción de la IA Generativa
5.1. ¿Por qué hablamos de una nueva habilidad?
VI. Conclusiones
Atención al cliente 4.0: los chatbots
Ramiro Savoie y Carolina Cinalli
I. La tecnología al servicio de los/as usuarios/as
II. El propósito basado en el caso de uso
2.1. Búsqueda de patrones
2.2. Clasificación de intenciones
2.3. Generación de la respuesta
2.4. Diseño conversacional de las respuestas
2.5. El humano como asistente del bot
III. El lado luminoso
IV. El lado oscuro
V. Conclusión
Boti, el chatbot de la Ciudad
Ernesto Kern, Carla Guglielmo, Ángeles Maldonado, Florencia Pasqui y Florencia Castagnino
I. Introducción
II. Llegada a WhatsApp
III. Plataforma
3.1. Herramientas de inteligencia artificial
3.2. Integraciones
3.3. Derivaciones
3.4. Seguridad y validación de ID
3.5. Privacidad de los datos
3.6. Mejora continua
3.6.1. Análisis de no entendidos
3.6.2. Falsos positivos
3.6.3. Resolución de incidencias
3.6.4. Feedback
3.6.5. Calibración
IV. ¿Qué servicios brinda Boti al vecino?
V. ¿Cómo se adaptó frente a la irrupción del COVID-19?
VI. Triage médico: Buenos Aires fue la primera ciudad latinoamericana en integrar WhatsApp a su protocolo frente al COVID-19
VII. Monitoreo de contactos estrechos
VIII. El futuro de los chatbots
Segunda parte
Ética, regulación y normativa. Sesgos, género, igualdad y no discriminación
Capítulo 3
Ética
Interludio. La rana, el escorpión y el Hambre de IA. Innovar sí, a cualquier costo no
Juan G. Corvalán
Ética y sistemas inteligentes
Antonio A. Martino
I. Introducción
II. Inteligencia artificial y riesgo
III. El ser humano
IV. La llegada de los sistemas inteligentes
4.1. Un caso importante
4.2. La cosa se pone más peligrosa
4.3. Dando la cara
4.4. Las noticias falsas
4.5. ¿Y el trabajo?
4.6. Los periódicos
4.7. El riesgo existencial
V. Documentos poniendo límites
5.1. La Unión Europea
5.2. El Vaticano
5.3. El Parlamento Europeo (PE)
5.4. La visión de los expertos: los 23 principios de la IA de Asilomar
5.5. La OCDE
5.6. La UNESCO
5.7. Libro blanco de inteligencia artificial de la UE
5.8. Marco ético para la inteligencia artificial en Colombia
VI. Economía y ética
VII. Siempre teniendo cuidado
VIII. Ética y estética
IX. Conclusiones
Transparencia y explicabilidad de algoritmos y sistemas de inteligencia artificial: qué, para qué y cuánta
Lorenzo Cotino Hueso
I. Las muchas finalidades y “caminos” que llevan a la “Roma” de la transparencia algorítmica y las variables para exigirla con más o menos intensidad
II. Transparencia algorítmica: un concepto que incluye una miríada de nociones
2.1. Transparencia “técnica”, transparencia intrínseca, interpretabilidad, comprensibilidad, descomponibilidad y simulabilidad del sistema de inteligencia artificial
2.2. Transparencia “interna” y “externa”
2.3. Explicabilidad. Tipos y elementos para lograrla
2.4. Las relaciones entre la interpretabilidad, transparencia y explicabilidad
2.5. Auditabilidad, trazabilidad, testabilidad, verificabilidad...
III. La premisa: la “comunicación” de la existencia del sistema IA y “notificaciones” de interacciones y de decisiones con inteligencia artificial
IV. Qué datos, información o conocimiento deben facilitarse sobre el sistema algorítmico
V. Información sobre la existencia, finalidad, incidencia en las decisiones públicas, la lógica y motivación comprensible
VI. Transparencia sobre los datos de entrenamiento, de entrada y los inferidos por el sistema y sus especificaciones técnicas
VII. Transparencia sobre las garantías del sistema y sus responsables
7.1. Información sobre evaluaciones de impacto, medidas y mitigaciones de riesgos, supervisión humana y auditorías
7.2. Transparencia sobre responsables, proveedores y usuarios, contratación del sistema y punto de contacto
Principios éticos para una inteligencia artificial antropocéntrica: consensos actuales desde una perspectiva global y regional
Mariana Sánchez Caparrós
I. Introducción
II. Inteligencia artificial: concepto y riesgos asociados
2.1. ¿Qué es la inteligencia artificial?
2.2. La IA como sistema sociotécnico
2.3. Riesgos asociados al uso de sistemas inteligentes
III. El florecimiento de documentos que abordan principios éticos para una IA antropocéntrica
3.1. Breve introducción: ¿por qué se necesita una ética para la inteligencia artificial?
3.2. Guías, recomendaciones y otros documentos que contienen principios éticos
3.3. Panorama global y regional principios éticos para una IA antropocéntrica
3.3.1. Introducción
3.3.2. Principales iniciativas del sector privado
3.3.2.1. Principios de la IA por Asilomar
3.3.2.2. Iniciativa global para la ética de los sistemas autónomos e inteligentes del Instituto de Ingenieros Eléctricos y Electrónicos —IEEE—
3.3.2.3. Inteligencia artificial ética en Google
3.3.2.4. Iniciativa de Microsoft
3.3.2.5. Iniciativa de Meta (ex Facebook)
3.3.3. Iniciativas desde el sector público
3.3.3.1. Iniciativas supranacionales
3.3.3.1.1. UNESCO
3.3.3.1.2. Principios de la IA por la OCDE
3.3.3.1.3. Directrices éticas del Grupo de expertos de alto nivel de la Comisión Europea
3.3.3.2. Iniciativas gubernamentales
3.3.3.2.1. Brasil
3.3.3.2.2. China
3.3.3.2.3. Colombia
3.3.3.2.4. Estados Unidos
3.3.3.2.5. India
3.3.3.2.6. Japón
3.3.3.2.7. Reino Unido
3.3.3.2.8. España
3.3.3.2.9. Uruguay
IV. Consensos en torno a los principios éticos necesarios para una IA antropocéntrica
V. Conclusiones
Guía para la evaluación de riesgos éticos y legales asociados a sistemas de inteligencia artificial
Juan G. Corvalán, Mariana Sánchez Caparrós, Giselle Heleg y Carina M. Papini
I. La relevancia de la consideración de la dimensión técnica y social de la IA
II. Identificación de actores clave para cada etapa del ciclo de vida
III. Requisitos para prevenir y mitigar riesgos, y para lograr una IA centrada en el ser humano
IV. La adopción de medidas técnicas para prevenir y mitigar riesgos
V. Guía para la evaluación de riesgos éticos y legales asociados al uso de sistemas de IA.
5.1. La evaluación de impacto para prevenir y mitigar riesgos éticos y legales provocados por sistemas de IA
5.2. Propuesta de guía práctica de evaluación de cumplimiento de principios éticos
5.2.1. Introducción
5.2.2. Cumplimiento del requisito de acción y supervisión humana
5.2.3. Cumplimiento del requisito de solidez técnica y seguridad
5.2.4. Cumplimiento del requisito de gestión de la privacidad y de los datos
5.2.5. Cumplimiento del requisito de transparencia, trazabilidad y explicabilidad
5.2.7. Cumplimiento del requisito de diversidad, no discriminación y acceso universal
5.2.8. Cumplimiento del requisito de rendición de cuentas
Infografía sobre Marco Europeo sobre aspectos éticos de la inteligencia artificial, la robótica y las tecnologías relacionadas
Infografía sobre las recomendaciones de la UNESCO sobre ética de la inteligencia artificial
Ciber-ética y la necesidad de un ecosistema de gobernanza digital
Mario D. Adaro y Marisa Repetto
I. Introducción
II. Estado de situación: ética e inteligencia artificial
III. Dimensiones de la ética y la inteligencia artificial: ética por el diseño, ética para el diseño y ética en el diseño
3.1. Ética por el diseño
3.2. Ética para el diseño
3.3. Ética en el diseño
3.3.1. Principios y recomendaciones del ecosistema regional y mundial
3.3.2. Gobernanza en el ecosistema digital global
3.3.3. Desafíos de la regulación
IV. Conclusión
La necesidad de establecer la inteligencia artificial como política pública para promover su potencialidad y mitigar sus riesgos
Jorge Vilas Díaz Colodrero
I. Resumen
II. Introducción
III. Análisis
IV. Potencialidad de la IA para el desarrollo
V. La necesidad del abordaje ético de la inteligencia artificial (IA)
5.1. ¿Pero qué está haciendo el mundo al respecto?
5.2. La Comunidad Europea
5.3. Organismos supranacionales
VI. La necesidad de una política pública de Estado para fortalecer el desarrollo y potencialidad de la IA y mitigar sus riesgos colaterales
Infografía sobre la necesidad de establecer la inteligencia artificial como política pública para promover su potencialidad y mitigar sus riesgos
Capítulo 4
Regulación y normativa
Propuestas de regulación y recomendaciones de inteligencia artificial en el mundo. Síntesis de principales aspectos
Dirección: Juan G. Corvalán Coordinación: Mariana Sánchez Caparrós y Melisa Raban Equipo de investigación: Giselle Heleg, Carina M. Papini, Antonella Stringhini y Valentín Bonato
I. Resumen ejecutivo
II. Cuadro comparativo de regulaciones en materia de IA
III. Resumen de regulaciones y recomendaciones de IA en el mundo
3.1. Parlamento Europeo
3.1.1. Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial adoptada por la Comisión Europea
3.1.2. Parlamento Europeo - Orientación general adoptada por Consejo con relación al proyecto de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial
3.1.3. Parlamento Europeo - Posición negociadora aprobada por el Parlamento Europeo con relación al proyecto de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial
3.2. OCDE
3.3. Proyecto de Ley de Chile sobre Robótica, Inteligencia Artificial y Tecnologías conexas
3.4. California: proyecto de ley AB331 sobre herramientas de decisión automatizada
3.5. República Popular China
3.5.1. Medidas Administrativas para los Servicios de Inteligencia Artificial Generativa (borrador para comentarios)
3.5.2. Actualización: Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa
3.6. Brasil
3.6.1. Proyecto de Ley 2338/2023
3.6.2. Proyecto de Ley 21/20 (año 2020)
3.7. Argentina
3.7.1. Recomendaciones para una IA fiable. Disposición 2/2023 Subsecretaría de Tecnologías de la Información
3.7.2. Banco Central de la República Argentina. Comunicación A 7724 “Requisitos mínimos para la gestión y control de los riesgos de tecnología y seguridad de la información”
3.8. Ley 144/2021 de la Ciudad de Nueva York
3.9. Otros enfoques. Documentos relacionados
3.9.1. Un enfoque favorable a la innovación para la regulación de la IA en Reino Unido de Gran Bretaña e Irlanda del Norte
3.9.2. Libro Blanco de Inteligencia Artificial de Japón
IV. Conclusiones
Cuadro comparativo de regulaciones de inteligencia artificial en el mundo
La regulación de la inteligencia artificial en la Unión Europea y en España: hacia un progresivo ensalzamiento del principio de Human in command
Federico Bueno de Mata
I. Introducción
II. El desarrollo de la capacidad de aprendizaje real de los sistemas de inteligencia artificial como punto de debate inicial
III. Propuestas de regulación de la inteligencia artificial a nivel europeo
3.1. Directiva 2018/1972 de 11 de diciembre de 2018: el Código Europeo de Comunicaciones Electrónicas
3.2. El Reglamento 2021/694: hacia una Europa Digital
3.3. Propuesta de Reglamento de 21 de abril de 2021 y la fijación de posturas en diciembre de 2022 y mayo de 2023
IV. Propuestas para una regulación de la inteligencia artificial en España: Plan de Justicia 2030
4.1. Proyecto de Ley de Eficiencia Digital
4.2. Posibilidades reales de aplicación de tecnología disruptiva en el proceso en una época postpandémica
V. Reflexiones finales
Puntos de partida para la regulación de la inteligencia artificial en Argentina
Equipo de especialistas: Federico Álvarez Larrondo, Hugo Álvarez Sáez, Juan G. Corvalán, Laura Díaz Dávila, Paula Garnero, Mario Leal, Mariana Sánchez Caparrós, Fulvio Santarelli, Gerardo I. Simari y Pamela Tolosa
I. Contexto. Consideraciones generales
II. Guía de consensos básicos
III. Marco regulatorio general. Ley de pisos mínimos
Capítulo 5
Sesgos, género, igualdad y no discriminación
Interludio. El gorila invisible y Funes el memorioso, en la era de la IA
Juan G. Corvalán
I. Uno más dos, ¿tres?
II. Cuando se nos pasan los gorilas
III. Nuestros dos “yo” y Funes, el memorioso
Inteligencia artificial. Inequidad y discriminación en cajas negras
María Caraballo
I. Introducción
II. Inteligencia artificial - red neuronal artificial
III. Tipos de aprendizaje
IV. Algoritmos
V. La caja negra. Prejuicios. Herramientas para su disminución
VI. Derecho
VII. Conclusiones
Inteligencia artificial, sesgos y categorías sospechosas. Prevenir y mitigar la discriminación algorítmica
Mariana Sánchez Caparrós
I. Introducción
II. Inteligencia artificial, sesgos y categorías sospechosas
2.1. La inteligencia artificial y los sesgos algorítmicos
2.2. La doctrina de las categorías sospechosas en el derecho argentino
2.3. Las categorías sospechosas como herramienta de control del sesgo algorítmico
III. Conclusiones
Video sobre sesgos algorítmicos de género
Infografía sobre el sesgo en los agentes conversacionales: de nuevo sobre el prejuicio cifrado
Infografía sobre sesgos
Infografía sobre violencia de género y aplicaciones móviles
Del derecho en los tiempos de IA (e IA generativa). Sobre estereotipos, sesgos y desigualdades
Pamela Tolosa
I. Introducción
II. Sobre como actuamos: sesgos y estereotipos de género
2.1. Acerca de heurísticas y sesgos
2.1.1. Hipocognición (hypocognition)
2.1.2. Primming
2.1.3. Heurística o sesgo de representación
2.2. Acerca de estereotipos
III. Diversidad de problemas
3.1. Clases de problemas
3.1.1. Casos de discriminación o trato desigual indirecto
3.1.2. Casos de diseños que implican discriminación o trato desigual
3.1.3. Casos de violencia simbólica y trato desigual en la IA generativa
3.1.4. Casos de impacto en el mercado laboral
3.2. Sobre trato desigual y discriminación de género
IV. Sobre la IA y el derecho como partes de la solución
4.1. ¿Puede la IA contribuir a corregir estereotipos de género?
4.2. ¿Puede hacer algo el derecho?
V. Reflexiones finales
La violencia de género y el uso de algoritmos de Inteligencia Artificial como herramienta efectiva para la protección de los derechos fundamentales
María de las Nieves Macchiavelli
I. Introducción
II. Generalidades previas. Despejando técnicas
III. Automatización de procesos judiciales con perspectiva de género. Un caso testigo
IV. Detección inteligente. El caso de I-Map
V. Conclusiones
Plan estratégico tecnológico UBA IALAB para un abordaje integral de casos de violencia de género
Infografía sobre imágenes sintéticas impulsadas por inteligencia artificial: su impacto en el género
Tomo II
Presentación de los autores
Primera parte
Tratamiento automatizado de datos, transparencia y privacidad
Capítulo 1
Datos, privacidad y derecho al olvido
Interludio. Te conozco, desde los me gusta, hasta los datos de tu cerebro. IA generativa, sistemas que leen mentes y la última frontera de la intimidad
Juan G. Corvalán
I. Ultrapersonalizar la experiencia
II. Perfilar humanos en conversaciones con IA generativa
III. La última frontera de la intimidad: leer la mente con la IA
El problema de los datos en la Cuarta Revolución Industrial
Mauro Berchi
I. Introducción
II. La transformación digital de la comunicación
III. El modelo de negocio de las gigantes, y el marketing digital de todas las demás
IV. Marketing digital
V. Datos y analítica
5.1. Jedi Blue
VI. All you can eat
VII. Dejar de fumar Facebook
VIII. Datos: un poco más que marketing digital
IX. Snowden, Cambridge Analytica, Camber Systems y Palantir
X. Identidad, algoritmos y predicciones
XI. El camino del infierno está regado de buenas (y automáticas) recomendaciones
El dilema de las redes sociales. Políticas de privacidad y cómo generar un ecosistema de protección
Juan G. Corvalán, Carla De Berti, Carina M. Papini y Giselle Heleg
I. ¿Cuántos somos y cuánto tiempo vivimos en el mundo digital?
II. La versión más sofisticada de la serie You
III. Una buena presentación es lo que vale. El soporte de las políticas de privacidad
IV. Conociéndote... La recopilación de datos de las plataformas digitales
V. Algunas observaciones en torno a cuestiones generales vinculadas a las políticas de datos y de privacidad
VI. No me ocultes nada, todo me interesa. Las razones que justifican la recolección y uso de datos personales
VII. Avances insuficientes para mitigar el ecosistema de desprotección
VIII. Los extraños terceros a quienes se comparte información
IX. Los cuidados en la era de la IA: la protección de los usuarios por los mismos desprotectores
X. Te recordaré ¿por siempre?: eliminación y conservación de datos
XI. Los puntos oscuros de las políticas de privacidad
11.1. Ocultamiento de las actividades sobre nuestro “tercer yo artificial”
11.2. Ocultamiento de los extraños a quienes transmiten nuestra información
11.3. Ocultamiento de las consecuencias de sus actividades y transmisiones
11.4. Ocultamiento de las posibilidades de limitar el acceso a los datos personales
XII. Principios transversales a la relación entre los usuarios
XIII. Las mejoras que hay que introducir en las políticas de datos y privacidad
13.1. Diseño de las políticas de privacidad
13.2. Características de la información
13.3. Información que deben contener las políticas de privacidad
Privacidad y tratamiento automatizado de datos personales en la IA generativa. Los grandes modelos de lenguaje (LLM): ChatGPT, Bing y Bard
Juan G. Corvalán, Carina M. Papini y Giselle Heleg
I. Sobre la investigación
II. Hipótesis preliminares
III. Consideraciones generales sobre la recopilación de datos
IV. Resumen ejecutivo
V. Descripción y análisis de las políticas de privacidad de los grandes modelos de lenguaje (LLM) de IA generativa
5.1. Caso de ChatGPT
5.1.1. Inexistencia de botón de aceptación de política de privacidad
5.1.2. Política de privacidad de OpenAI
5.1.2.1. Acceso a la política
5.1.2.2. Idioma de la política
5.1.2.3. Ámbito de aplicación de la política de OpenAI
5.1.2.4. Información personal que recopilan
5.1.2.5. Cómo usan la información personal
5.1.2.6. Información agregada o no identificada
5.1.2.7. Divulgación de información personal
5.1.3. Artículo de OpenAI sobre el manejo de ChatGPT y los modelos de lenguaje
5.1.4. Desactivación del entrenamiento
5.1.5. Respuesta del chat acerca del perfilamiento
5.1.6. ¿ChatGPT perfila?
5.2. El Chat Bing
5.2.1. Aceptación y acceso a la política de privacidad
5.2.2. Declaración de privacidad de Microsoft
5.2.2.1. Datos personales que recopilan
5.2.2.2. Modo en que usan los datos personales
5.2.2.3. Tratamiento automatizado
5.2.2.4. Razones por las que comparten los datos
5.2.2.5. Cómo acceder a los datos y controlarlos
5.2.2.6. Cookies y archivos
5.2.2.7. Búsqueda, Microsoft Edge e Inteligencia Artificial
5.2.3. Respuesta del Chat Bing acerca del perfilamiento basado en datos personales
5.2.4. Chat de Bing, ¿perfila?
5.3. Caso de Bard
5.3.1. Aviso de privacidad de Bard
5.3.1.1. Algunas aclaraciones en relación con la información que surge de la política
5.3.1.2. Configurar los ajustes
5.3.1.3. Petición de corrección de los datos
5.3.1.4. Bard, tecnología experimental
5.3.2. Respuestas de Bard
5.3.3. ¿Bard perfila?
VI. A modo de síntesis
6.1. Existencia de una política de privacidad específica
6.2. Aceptación de la política de privacidad
6.3. Información personal que se recopila
6.4. Herramientas de recolección de los datos
6.5. Finalidades por las que se recolectan los datos
6.6. Transferencias de datos
6.7. Información agregada o no identificada
6.8. Control humano
6.9. Desactivación del entrenamiento
6.10. Elaboración de perfiles y tratamiento automatizado
6.11. Cuadro comparativo IA generativa
Cuadro comparativo de plataformas digitales: Facebook, Instagram, Twitter, FaceApp, Google, LinkedIn y TikTok
El derecho al olvido: una cuenta aún pendiente
Marcelo A. López Alfonsín
I. Introducción
II. Origen y fundamento del “derecho al olvido”
III. La tensión entre los derechos en juego
3.1. Derecho a la libertad de expresión
3.2. Derecho a la intimidad
IV. Responsabilidad de los intermediarios
V. La situación en Argentina
5.1. Legislación
5.2. Jurisprudencia
VI. Consideraciones finales
Capítulo 2
Intimidad y privacidad en los ecosistemas digitales. Perfilado de personas humanas a través de la IA
Explorando los perfiles digitales humanos: cómo los algoritmos nos conocen más que nosotros mismos. Incluye el análisis del nuevo proyecto de Ley de Protección de Datos Personales de Argentina
Juan G. Corvalán y Carina M. Papini
I. Introducción: una radiografía fraccionada, transformada, aumentada y también distorsionada de gustos, intereses, pensamientos y deseos sofisticada y precisa
1.1. Sobre la actualización del libro Perfiles digitales humanos y la primera edición del Tratado
Parte 1. Cuestiones generales acerca del tratamiento automatizado de datos personales. el ciclo de elaboración de perfiles digitales humanos
I. Recolección de datos expresos, metadatos e implícitos
II. Te conozco, desde las cookies hasta la punta del píxel. Herramientas para mantener el ecosistema del tratamiento automatizado y las lógicas de negocio
III. Elaborar, comparar y actualizar constantemente los perfiles digitales humanos
IV. Crear scorings basados en perfiles digitales humanos. El pasado que puede condenar al futuro
4.1. Uso de scoring por bancos
4.2. IA generativa para el scoring bancario
4.3. Scoring para conceder o denegar la libertad condicional
4.4. Elaboración ilícita de perfiles y scoring para la acción policial y la gestión de fronteras
4.5. Reglamento de Inteligencia Artificial de la Unión Europea. Prácticas prohibidas
V. Transferir y subastar perfiles digitales
5.1. Algunas cifras que muestran la utilidad de las subastas de perfiles
Parte 2. Consecuencias del tratamiento automatizado de datos personales
I. Una lista incompleta de cuestiones asociadas a la desprotección de personas durante el ciclo de perfilado
1.1. Desconocimiento y falta de información sobre los tratamientos realizados sobre los datos personales
1.2. Ofrecimiento de productos, remarketing y retargeting y determinación de la información a consumir
1.3. Creación de necesidades en función de los intereses empresariales
1.4. Personalización de precios
1.5. Dificultad para tomar decisiones conscientes
1.6. Determinación del comportamiento, consumo de productos, servicios y manipulación
1.7. Sobreinformación y desinformación
Parte 3. Cómo crear un ecosistema protectorio y sustentable. Análisis normativo. Derechos y principios vinculados al tratamiento de datos y a los perfiles digitales humanos
I. Enumeración de las novedades en materia regulatoria desde la publicación de perfiles digitales humanos y perfiles digitales humanos. episodio recargado
1.1. Perfiles digitales humanos, el impacto del Reglamento General de Datos Personales en la Inteligencia Artificial y El dilema de las redes sociales
1.2. Diferentes enfoques regulatorios y normativos recientes
1.2.1. Proyecto de Ley de Protección de Datos Personales
1.2.2. Recomendación sobre la ética de la inteligencia artificial - UNESCO
1.2.3. Aprobación del Convenio 108+ en Argentina
1.2.4. Declaración sobre el Acceso Gubernamental a Datos Personales en Posesión de Entidades del Sector Privado - OCDE
1.2.5. Principios Actualizados sobre la Privacidad y la Protección de Datos Personales en OEA
1.2.6. Disposición 2/2023 - Jefatura de Gabinete de Ministros - Subsecretaría de Tecnologías de la Nación
1.2.7. Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial
II. Respeto de los derechos y principios de protección durante la totalidad del ciclo de vida de los sistemas de IA que elaboran perfiles digitales humanos
2.1. Derechos vinculados al tratamiento automatizado de datos personales
2.1.1. Autodeterminación informativa
2.1.1.1. Características del derecho
2.1.1.2. Contenido del derecho
2.1.1.3. Tutela urgente del derecho
2.1.1.4. Derecho a la información en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.1.1.4.1. Nuestra opinión sobre el tratamiento del derecho a la información en el Proyecto
2.1.1.5. Derecho a la información en el Convenio 108 +
2.1.2. Derecho de consentimiento
2.1.2.1. Características
2.1.2.2. El derecho de consentimiento en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.1.2.3. Derecho de consentimiento en el Convenio 108 +
2.1.3. Revocación del consentimiento
2.1.4. Derechos de oposición y supresión
2.1.4.1. El derecho de oposición en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.2. La elaboración de perfiles digitales humanos desde la óptica de las normas internacionales y el Nuevo Proyecto de Ley de Protección de Datos Personales
2.2.1. ¿Prohibición de elaboración de perfiles?
2.2.2. Consideraciones para el consentimiento para el perfilado
2.2.3. Las decisiones automatizadas y la elaboración de perfiles en el Nuevo Proyecto de Ley de Protección de Datos Personales para Argentina
2.2.4. Consagración del derecho a no ser sujeto a decisiones automatizadas en el Protocolo 108 +
2.2.5. Perfilado sobre datos sensibles
2.2.5.1. La prohibición de realizar tratamiento automatizado o semiautomatizado sobre datos sensibles en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.3. Te llevo para que me lleves: la portabilidad de los perfiles
2.3.1. Derecho a la portabilidad en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.3.1.1. Sobre la omisión de garantizar el derecho a la portabilidad de los perfiles. Nuestra opinión sobre el proyecto
2.3.1.2. Desafíos para los responsables
2.3.1.3. Requisitos para garantizar el derecho a la portabilidad
2.3.1.4. Excepciones a la obligación de garantizar el derecho
2.4. Privacidad desde el diseño y por defecto
2.4.1. Privacidad desde el diseño y por defecto en el Nuevo Proyecto de Ley de Protección de Datos Personales
2.4.1.1. Privacidad desde el diseño
2.4.1.2. Privacidad por defecto
III. Importancia de la transparencia para responsabilizar
IV. Evaluación de impacto en el Convenio 108+
Anexo 1. Derecho de consentimiento, información y educación en caso de menores de edad
I. Políticas de privacidad adaptadas a los niños, niñas y adolescentes
II. Tratamiento de datos de niños, niñas y adolescentes en el Nuevo Proyecto de Ley de Protección de Datos Personales
Anexo II. No te puedo arrancar de mi cabeza: nuevos mecanismos de recolección de datos personales
I. Neuralink
II. Uso inteligencia artificial para reproducir sonidos e imágenes
2.1. Desafíos
2.2. Medidas para preservar los derechos
2.2.1. Estatus legal nuevo a los datos cerebrales
2.2.2. Análisis del surgimiento de nuevos principios y derechos de protección
2.2.3. El rol de los neuroderechos y su vínculo con la privacidad
Infografía sobre IA + datos personales. El impacto del GDPR en la inteligencia artificial. Estudio del Parlamento Europeo
Infografía sobre Comparación IA + Datos personales. El estudio del Parlamento Europeo sobre el impacto del GDPR en la inteligencia artificial y el libro Perfiles digitales humanos
La inteligencia artificial y el dilema de las redes sociales
Mónica D. Fernández Campero
I. Introducción
II. Inteligencia artificial en el día a día
2.1. Las redes sociales, ¿son una herramienta de persuasión?
2.2. Gratuidad en los servicios de internet, ¿una falsa creencia?
2.3. La IA nos domina, ¿es un jaque a la humanidad?
III. Datos personales y perfilamiento digital
IV. Derechos vulnerados en las redes sociales. jurisprudencia
V. Algunas recomendaciones para el uso seguro de las redes sociales
VI. Conclusión
Libertad de expresión y la inteligencia artificial. Decidiendo, errando y construyendo realidades
Federico Álvarez Larrondo
I. Introito. El choque de los dos mundos: el físico vs. el virtual
II. Trump. El hombre que llegó a la presidencia de EE.UU. con el poder “tradicional” en su contra
III. El conflicto Trump vs. Twitter
IV. La construcción del marco legal virtual gracias a las herramientas brindadas por el derecho tradicional. Los “Términos y Condiciones”
V. Por qué el conflicto entre Trump y Twitter esconde una de las batallas de nuestro tiempo
VI. El control de contenido en las redes sociales
VII. ¿La IA como “juez” del contenido prohibido?
VIII. Bloqueamos, pero... ¿en todo el mundo?
IX. El Tribunal de Justicia de la Unión Europea y el caso “Gerichtshof”. Límites territoriales y ¿orden de imponer a la IA la moderación de redes?
X. Corolario
Neurotecnologías y neuroderechos. Una primera sentencia en Chile
Carlos Amunátegui Perelló
I. Neurotecnologías en general e interfaces cerebro y computadoras en particular
II. Hacia la construcción de neuroderechos
III. La sentencia
Segunda parte
Derecho civil, usuarios y consumidores
Capítulo 3
Responsabilidad civil y derecho del consumo
Interludio. Puede besar al robot
Juan G. Corvalán
Responsabilidad civil de la inteligencia artificial
Juan G. Corvalán, Cecilia C. Danesi y María Victoria Carro
I. Introducción
II. Concepto de “robot” y su relación con la IA
III. De “espejito, espejito...” a Skynet. La autonomía de la inteligencia artificial
IV. La vuelta de Herbie a toda marcha. El caso de los vehículos autónomos
V. El ordenamiento jurídico frente a los daños ocasionados por la IA: ¿vacío legal?
VI. Sophia. Teoría de la personalidad electrónica
VII. La responsabilidad por el hecho ajeno
VIII. Sistemas de protección de derechos de los consumidores
8.1. Seguridad de los productos
8.2. Directiva (85/374/CEE) relativa a la responsabilidad de los daños causados por productos defectuosos
8.3. Ley 24.240 de Defensa del Consumidor
IX. La teoría del riesgo y los daños causados por animales
X. Propuesta de Reglamento del Parlamento Europeo y del Consejo relativo a la responsabilidad civil por el funcionamiento de los sistemas de IA
10.1. Sistemas de IA de alto riesgo
10.2. Otros sistemas de IA
10.3. Imputación de la responsabilidad civil
XI. Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial adoptada por la Comisión Europea
XII. Anexo I. Las regulaciones específicas en materia de vehículos autónomos
12.1. Estados Unidos
12.2. Corea del Sur y Japón
12.3. Australia
12.4. Canadá
12.5. China
12.6. Nueva Zelanda
12.7. Reino Unido
12.8. Alemania
Infografía sobre legislación de los Estados en materia de vehículos autónomos
Propuestas para encuadrar la responsabilidad civil derivada de la utilización de algoritmos. Una perspectiva argentina
María Celeste Colombo
I. Introducción
II. Los algoritmos como fuente generadora de daño
2.1. Los errores informáticos o bugs
2.2. Los sesgos algorítmicos
2.3. La manipulación algorítmica y/o el efecto burbuja
III. La responsabilidad civil derivada de la utilización de algoritmos. Una perspectiva argentina
IV. La utilización de algoritmos como actividad riesgosa
V. El algoritmo como producto defectuoso
5.1. Responsabilidad del proveedor por servicios defectuosamente prestados
VI. La obligación de seguridad debida por el proveedor y el uso de algoritmos
6.1. La obligación tácita de seguridad
VII. ¿Cómo encuadrar la responsabilidad civil de ChatGPT bajo la normativa argentina?
VIII. Conclusiones
Personalidad jurídica del robot y la responsabilidad civil por sus hechos
Florencia R. Gianfelici
I. Introducción. De Frankenstein a Astro
II. Personalidad jurídica electrónica
2.1. Yo, Robot
2.2. No somos los únicos inteligentes
2.3. Transhumanismo vs. Humanismo
2.4. Ser persona
III. Responsabilidad civil derivada de la robótica
3.1. Regulación legal
3.2. Responsabilidad civil del robot
3.3. Legitimación pasiva. Distintos supuestos
3.4. Fundamento de la responsabilidad civil del operador: distintas hipótesis
3.5. Especie de responsabilidad civil
3.6. El empleo de la robótica como actividad riesgosa
3.7. Los legitimados pasivos frente al consumidor
3.8. Los profesionales como legitimados pasivos
3.9. Eximentes de responsabilidad
IV. Registro de los robots y seguro
V. Conclusión
Infografía sobre resolución del Parlamento Europeo, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial y propuesta de Reglamento
Infografía sobre inteligencia artificial en accidentes de tránsito
Diseño de algoritmos que aplican inteligencia artificial: un enfoque preventivo de la responsabilidad civil a la luz de la propuesta de reglamento del Parlamento Europeo del año 2020
Karol Valencia
I. Enfoque preventivo de la inteligencia artificial y la responsabilidad civil
II. Panorama actual de la responsabilidad civil de la inteligencia artificial
III. Régimen jurídico propuesto por el Parlamento Europeo sobre responsabilidad civil por daños de los sistemas que aplican inteligencia artificial
IV. Opinión y retroalimentación sobre la propuesta de reglamento del Parlamento Europeo sobre el régimen de responsabilidad civil en materia de inteligencia artificial
V. Diseño ético y enfoque preventivo de la responsabilidad civil en los sistemas operativos que aplican inteligencia artificial
VI. La responsabilidad civil en el 2023
VII. Sobre el informe de IA en la era digital y la responsabilidad civil
VIII. La responsabilidad civil de ChatGPT
Los nuevos derechos de los consumidores en la era de la inteligencia artificial
Fernando Valdez, María Sofía Nacul, Bárbara Steimberg, José H. Sahián y Adolfo Iriarte Yanicelli
I. Introducción
II. El nacimiento de la protección diferenciada: reconocimiento y tutela de los derechos de los consumidores y usuarios
2.1. Aproximación entre los conceptos de consumidor, ciudadano y persona
2.2. Reconocimiento de derechos a los usuarios y consumidores
2.3. La reforma de la ley del consumidor y la era de la inteligencia artificial
III. La protección de la intimidad y la privacidad de consumidores y usuarios: marco legal y problemas que se plantean
IV. El acceso a la información, privada y pública, como instrumento para el logro de la transparencia algorítmica
V. La protección de la intimidad y la privacidad vs. el derecho a la libertad de expresión. la disputa en torno al derecho al olvido
VI. Hipervulnerabildad
VII. Resolución de Disputas en línea (ODR)
VIII. Conclusiones
Inteligencia artificial, neurociencias y consumidores de seguros
Waldo Sobrino
I. Introducción
II. Derecho, economía y comportamiento
III. La mayoría de la toma de decisiones no son racionales (“Sistema 1”)
IV. Los contratos no se leen
V. Neurociencias y derecho
VI. Inteligencia artificial
VII. Brecha de información asimétrica exponencial: big data vs. sistema 1
VIII. La información casi total que las empresas tienen de los consumidores
8.1. Información que tiene que brindar el asegurado
8.2. Notificaciones y denuncias que debe realizar al asegurado
8.3. Deber de información y algoritmos inteligentes
IX. La discriminación desinformada que pueden sufrir los consumidores
9.1. Price Optimization
9.2. Price Discrimination
9.3. Menor costo para los más peligrosos y mayor costo para los más vulnerables
9.4. Mayor costo para aquellos que menos comparan precios y menores costos para los clientes que analizan los costos
X. El “deber de información” de las compañías de seguros frente a los asegurados a la luz de la inteligencia artificial
XI. Conclusiones
El seguro 4.0. Cómo la IA generativa está reconfigurando la industria del seguro
María Celeste Colombo
I. Introducción
II. Las nuevas tecnologías como motor del cambio de paradigma en el derecho de seguros
III. El aprovechamiento de IA generativa en el mercado asegurador
IV. Luces y sombras en torno a la utilización de la IA generativa
V. La IA generativa y su impronta en la privacidad y el deber de información en el marco del contrato de seguro
VI. Palabras finales
Adquisición de bienes mediante agentes artificiales en el Código de Bello
Carlos Amunátegui Perelló
I. Introducción
II. Actos de enriquecimiento material
III. Conclusiones
Capítulo 4
Salud
Interludio. Un tsunami de Dr. House artificiales
Juan G. Corvalán
Aspectos médicos y tecnologías disruptivas. Desafíos presentes y futuros
Joaquín Fernández Sande y Enrique Díaz Cantón
I. El dios de las dos caras: cultivando el poder de la IA en la medicina
II. Un salto de fe hacia el futuro
III. El hoy
3.1. Prevención
3.2. Diagnóstico precoz
3.3. Diagnóstico
3.4. Tratamiento
IV. El mañana
V. IA en educación médica
5.1. Efectos adversos
5.2. Conclusiones
Inteligencia artificial en medicina
Karina Pesce
I. Inteligencia artificial en diagnóstico por imágenes
1.1. Gobernanza del dato
1.2. Confianza pública
1.3. Propiedad de los datos
1.4. Seguridad y privacidad del paciente
1.5. Dilema de la caja negra
1.6. Análisis de costos
1.7. Aplicaciones de la IA en radiología
II. Caso Artemisia del laboratorio a la implementación clínica. Una red neuronal para evaluación de la densidad mamográfica
Inteligencia artificial en la salud: datos, regulaciones y privacidad
Enzo M. Le Fevre Cervini y Giselle Heleg
I. Introducción
II. Los datos, el activo básico de la inteligencia artificial
III. Datos de salud: riesgos y oportunidades
IV. Protección de datos de salud
4.1. Control sobre los datos de salud
4.2. Privacidad de los datos de salud
4.3. De la Unión Europea a Estados Unidos: circulación de datos luego de la finalización del Escudo de privacidad
V. Seguridad y resiliencia en infraestructuras y servicios de e-salud
VI. Gestión de datos de salud para la inteligencia artificial
VII. Conclusión
La matrix legal de la IA en salud
Paula E. Kohan y Sol García Gili
I. Introducción
II. Ingresando a la matrix de la IA: qué es la IA
2.1. Algunas precisiones conceptuales de la IA
III. Los intersticios del ser humano: ¿cómo tomamos decisiones los humanos? (los médicos están incluidos en la calificación)
3.1. Los sesgos cognitivos
3.2. Los ruidos externos
3.3. Algunas conclusiones
IV. Escogiendo la píldora roja hacia la matrix de la IA. ¿Cómo aprende la IA (débil)?
V. Incluyendo a la IA en los sistemas de salud
VI. Doctor... ¡Creo que tenemos un problema!
6.1. El enfoque de la UE en materia de responsabilidad
6.2. Qué ocurre en Argentina
VII. Conclusiones. Trabajemos en una matrix preventiva
Anexos Cuadro sobre la responsabilidad civil médica (RCM) en Argentina
Cuadro comparativo sobre los seres humanos y la IA
Capítulo 5
Sector agropecuario
Producir alimentos y administrar datos: desafíos del empresario agropecuario en la era de la inteligencia artificial. Un aporte para el debate a partir de la experiencia internacional
Carlos A. Vidal
I. El sector agropecuario en el futuro: producir alimentos para alimentar a un mundo en transformación
II. La inteligencia artificial como vector de la transformación digital del sector agroalimentario
2.1. Sistemas de riego
2.2. Cosecha
2.3. Pulverización
2.4. Asesoramiento y extensión agropecuaria
2.5. Seguro agrícola
2.6. Ganadería
III. Inteligencia artificial y datos agropecuarios: aportes para el debate a partir de la experiencia internacional
3.1. La experiencia de Estados Unidos: principios de privacidad y seguridad para datos agrícolas
3.2. La experiencia de la Unión Europea: Código de Conducta de la Unión Europea sobre el intercambio de datos agrarios por acuerdo contractual
IV. Los avances de la Unión Europea frente al tratamiento sobre datos agrícolas a 2023
V. A modo de conclusión
Tomo III
Presentación de los autores
Primera parte
IA en la justicia. Automatización y sistemas predictivos
Capítulo 1
Cuestiones conceptuales y directrices de uso de IA generativa
Interludio. Mark Twain, Homero Simpson, Steve Jobs y “el Juego de la Fortuna”. Cinco postulados para transformar la justicia con IA
Juan G. Corvalán
I. Gestionar (y no combatir) la resistencia al cambio
II. Paradojas tecnológicas en la justicia
III. Estadísticas y aprendizaje automático: un buen combo para mejorar la justicia
IV. El aporte de la IA generativa y los grandes modelos de lenguaje (LLM) tipo ChatGPT
V. La IA y la Justicia lenta: conectar los puntos
Breve historia entre saberes jurídicos y no jurídicos y de cómo facilitar la mitigación de las barreras gnoseológicas en tiempos de IA
Hugo Álvarez Sáez
Sección I
I. Introducción
1.1. Consensos
1.2. Anomia o convergencia
1.3. Causalidades o correlaciones
II. Desde el derecho
2.1. Modos y desde el “que hacia el Cómo”
2.2. El presente
2.3. Modo escenario
2.4. El derecho demorado por factores multicausales. ¿Cuáles?
2.5. Otra de las multicausas es precisamente la falta de políticas públicas
III. Desde la ciencia. Un repaso de la historia reciente
3.1. Modo espera: ¿qué pasaba dentro de la ciencia?
3.2. Autismo científico
3.3. Complejización y crecimiento de la demanda
3.4. Crecimiento sostenido de la ciencia
3.5. Actitud proactiva
Sección II. Cómo procesar el cambio
I. De lo analógico a lo digital y de menor a mayor
1.1. Regular la marcha
1.2. Cuando menos, es más
1.3. El entorno político sociológico
1.4. Libertad(es)
1.5. Nuevo espacio epistémico
Sección III. La transdisciplinariedad
I. El futuro es cuántico
II. La unidad del conocimiento para la comprensión del mundo
III. Saberes integrados en un movimiento conceptual multipropósito
3.1. Dos ejemplos de Saberes integrados
3.2. Cruce autónomo de saberes
IV. Cuatro (4) beneficios de la transdisciplinariedad
4.1. Institucional
4.2. Práctica profesional de abogados y abogadas
4.3. Comunicar la ciencia
4.4. La ciencia es un activo social
4.5. Ciencia abierta, inclusiva, no excluyente
V. Principio de progresividad y no regresión. El plano nomológico internacional. Los derechos humanos
VI. Beneficios de la investigación transdisciplinaria para la ciencia
6.1. Todas las ciencias son de aplicación jurídica
6.2. Conclusión parcial de este fundamento
Sección IV. A modo de resumen. Borges y la mutación hacia lo desconocido
Sección V. Conclusiones propositivas
Inteligencia artificial y Poder Judicial. Hacia otra idea de justicia
Daniel R. Pastor
Actividad procesal automatizada
Sebastián C. Chumbita
I. Introducción
II. Los actos procesales jurisdiccionales
III. Acerca de los principios procesales involucrados
IV. La técnica de automatización
V. Acerca de un estudio empírico
VI. El análisis de los datos y su perspectiva procedimental
VII. Nuevos principios asoman
VIII. Conclusiones
Ejecución procesal e inteligencia artificial
Andrea A. Meroi
I. El proceso judicial y la IA
II. Las pretensiones ejecutivas, especialmente idóneas para el uso de IA
III. Algunas experiencias del derecho comparado y en el ámbito local
3.1. Finlandia
3.2. Eslovenia
3.3. Bélgica
3.4. Reino Unido (UK)
3.5. Estados Unidos de América
3.6. Canadá
3.7. Brasil
3.8. Argentina
IV. Posibles aplicaciones de IA en la ejecución procesal
4.1. La IA como tecnología de apoyo
4.2. La IA como tecnología de reemplazo
4.3. La IA como tecnología disruptiva
V. Momentos críticos de la ejecución e IA
VI. El caso especial de los procedimientos monitorios
VII. El caso especial de los títulos que instrumentan relaciones de consumo
VIII. Excursus sobre IA, ejecución y derechos fundamentales
8.1. Un punto de partida ineludible: las recomendaciones de la Unión Europea
8.2. Algunas implicaciones concretas
8.2.1. Conocimiento efectivo, derecho a la información, control del usuario
8.2.2. Acceso a la justicia, brecha digital y obligatoriedad del uso de la tecnología
8.2.3. Protección de datos personales
8.2.4. Sesgos de programación
8.2.5. Competencia funcional para el diseño, entrenamiento y control del sistema
8.2.6. ¿Huida del sistema público de solución de conflictos?
IX. Conclusiones
Guía de directrices para el uso de ChatGPT e IA generativa de texto en la justicia
Juan G. Corvalán, Mariana Sánchez Caparrós, Melisa Raban, Giselle Heleg, Carina M. Papini, Antonella Stringhini, Marco Rossi y Franco Orellana
I. Resumen ejecutivo
II. Objetivo
III. Marco conceptual. Posibilidades y límites de los grandes modelos de lenguaje
IV. Posibles usos de IA generativa de texto en la Justicia
4.1. ¿Cuáles serían algunos posibles usos transversales de IA generativa en la Justicia?
4.2. ¿Cuáles serían algunos posibles usos específicos de IA generativa en la Justicia?
V. Consideraciones relevantes con relación a los posibles usos de la IA generativa de texto identificados en esta guía
VI. Directrices y recomendaciones específicas para el uso de IA en la Justicia
6.1. Introducción
6.2. Listado de directrices y recomendaciones
6.2.1. Con relación a los datos de la organización y de terceros
6.2.1.1. Al usar documentos o información como insumo: proteger y garantizar la confidencialidad
6.2.2. Con relación a las personas de la organización
6.2.2.1. Analizar el nivel de conocimiento de los usuarios y diseñar planes de concientización y conocimiento de la IA generativa
6.2.3. Sobre los resultados del sistema de IA
6.2.3.1. Iterar respuestas con supervisión humana adecuada enfocada en revisar y editar manualmente las respuestas
6.2.3.2. Considerar los documentos generados con la IA como borrador
6.2.3.3. Evaluar y mitigar sesgos en las respuestas generadas
6.2.4. Con relación al prompting
6.2.4.1. Para el prompting en general
6.2.4.2. Para el legal prompting
6.2.4.3. Para el legal prompting para el dictado de actos procesales
6.2.5. Para el abordaje, análisis y resolución de problemas jurídicos y no jurídicos
6.2.5.1. Super prompting para la exploración de diversos enfoques sobre un problema
6.2.5.2. Estrategias para la valoración de pruebas y búsqueda de sugerencias para la resolución de casos
6.2.6. Para trabajar sobre textos legales y no legales
6.2.6.1. Simplificación de textos
6.2.6.2. Resumen de textos
Infografía sobre directrices de uso de la IA generativa de texto y ChatGPT en la Justicia
Capítulo 2
Uso de IA en los sistemas judiciales. Diagnósticos, pruebas piloto, pruebas de concepto y casos de uso
Interludio. Una era de oráculos artificiales y generativos. Apuntes para entender las predicciones de IA en la justicia
Juan G. Corvalán
I. Lados luminosos y oscuros de los sistemas predictivos en la justicia
II. Predicciones como complemento y en modo asistente
III. Desarrollo de sistemas predictivos en la Justicia: seis lecciones aprendidas a partir del trabajo del Laboratorio de Innovación e inteligencia artificial de la Universidad de Buenos Aires (UBA IALAB)
IV. Correlaciones predictivas que optimizan la tarea judicial
V. La IA generativa en la Justicia
Infografía sobre el estudio de la Comisión Europea sobre el uso de tecnologías innovadoras en el campo de la Justicia
Infografía sobre el estudio del uso de inteligencia artificial en la Justicia de América Latina
Aclaraciones previas sobre PretorIA
Juan G. Corvalán, Carina M. Papini y Giselle Heleg
I. Documentación del proceso de entrenamiento y programación de PretorIA
II. Premio a PretorIA
III. Aclaraciones previas en relación con los procesos de entrenamiento y programación de PretorIA
IV. Predicciones trazables y explicables
V. Nuevos insumos para la gobernanza de datos, detección de palabras claves y construcción de RegEx
5.1. Pruebas en ChatGPT para la detección de palabras claves y expresiones regulares
5.2. Descripción de una prueba realizada por el equipo UBA IALAB
VI. Conclusión
Infografía sobre PretorIA en la Corte Constitucional de Colombia. El primer sistema de IA predictivo en aplicación en un máximo tribunal judicial de Latinoamérica. Detección y clasificación de acciones de tutela en materia de salud. Sistema ganador del premio como mejor herramienta de modernización de la Justicia
Instructivo de gobernanza de datos para sistemas predictivos. Basado en el sistema PretorIA, desarrollado por UBA IALAB para la Corte Constitucional de Colombia
Juan G. Corvalán, Carina M. Papini, Mariela Palacios, Julián Palumbo, Osvaldo Pitrau y Verónica Quartesan
I. Introducción
II. Sobre el instructivo
III. Enfoque holístico y transdisciplinario: reingeniería de IA a partir de conectar datos y tareas con decisiones y documentos
IV. Paso a paso de los procesos de gobernanza de datos
4.1. Paso 1. Identificación de las tareas que están involucradas la organización
4.2. Paso 2. Clasificación de las tareas
4.3. Paso 3. Cuantificación de las tareas
4.4. Paso 4. Diagnóstico y selección de las tareas a las que se aplicará IA
4.5. Paso 5. Diagnóstico acerca del ecosistema por el que circulan los datos. Conocimiento del almacenamiento y gestión de la información
4.6. Paso 6. Selección de la técnica de inteligencia artificial
V. Gobernanza de datos para la predicción a través de cajas blancas: proceso de elaboración de datasets de entrenamiento para la búsqueda de palabras, frases o conjunto de palabras o frases clave (keywords)
5.1. Introducción
Anexo 1. Preguntas frecuentes
Protocolo sobre gobernanza algorítmica (basado en el sistema PretorIA). Trazabilidad, explicabilidad, interpretabilidad y fiabilidad. Diseño, desarrollo y despliegue
Juan G. Corvalán, Ana P. Montenegro, Carina M. Papini, Matías Puig, Osvaldo Pitrau, Verónica Quartesan y Antonella Stringhini
I. Ciclo de vida de la inteligencia artificial y trazabilidad
II. Predicciones de caja blanca: explicables e interpretables en su totalidad
III. Principios para una administración de la IA confiable: justificación de la necesidad de utilizar sistemas de IA trazables
3.1. Principio de trazabilidad algorítmica
3.2. Principio de transparencia algorítmica y explicabilidad
3.3. Valores centrados en el ser humano, diversidad, no discriminación y equidad
3.3.1. Valores centrados en el ser humano
3.3.2. No discriminación
3.3.3. Equidad
3.3.4. Equidad informativa
3.4. Robustez, seguridad y protección
3.5. Trazabilidad y protección de datos personales
IV. Auditabilidad
V. Trazabilidad en PretorIA
5.1. Ciclo de vida de PretorIA
5.1.1. Diseño, datos y modelos
5.1.1.1. Diagnóstico de la tarea y microtarea a la cual aplicar IA
5.1.1.2. Selección de la técnica de IA aplicable a la tarea
5.1.1.2.1. Elaboración de datasets
5.1.1.2.2. Definición de criterios
5.1.1.2.3. Detección de keywords
5.1.2. Verificación y validación
5.1.2.1. Entrenamiento del predictivo
5.1.2.2. Entrenamiento por reinterpretación de criterios y refinamiento de keywords
5.1.3. Despliegue
5.1.4. Operación y monitoreo
Infografía de trazabilidad y auditabilidad del desarrollo de PretorIA
Automatización e inteligencia artificial para optimizar procesos judiciales en Perú. Prueba de concepto en los módulos de violencia familiar
Juan G. Corvalán, Giselle Heleg y Carina M. Papini
I. Introducción
II. Contexto y justificación
III. Paso a paso del proceso para el desarrollo de la prueba de concepto
3.1. Diagnóstico y relevamiento del estado de situación en el interior de los poderes judiciales de Perú
3.2. Identificación de la tarea a la cual aplicar IA y propuesta de MVP
3.3. Metodología
3.4. Conformación del equipo multidisciplinario de trabajo
3.5. Datos de muestra
3.6. Elaboración de data sets. Diseño, entrenamiento y testeo
3.7. Identificación de criterios en los documentos
3.8. Proceso de control y depuración de bases de datos
3.9. Actividad multidisciplinaria y colaborativa entre los equipos de programación y de gobernanza de datos
3.10. Inteligencia artificial aplicada a imágenes para la detección inteligente del nivel de riesgo
3.11. Árboles de decisión y automatización de los documentos
3.12. Requerimientos para el desarrollo de calendarios inteligentes
3.13. Estadísticas e informes dinámicos
IV. Módulos de la prueba de concepto
4.1. Módulo 1. Extractor
4.2. Módulo 2. Detección inteligente
4.3. Módulo 3. Automatización inteligente
4.4. Módulo 4. Calendario inteligente
4.5. Módulo 5. Estadísticas dinámicas
La transformación digital en la justicia cordobesa: desafíos y experiencias en el Fuero de Ejecuciones Fiscales
Claudia Smania, Verónica Viglianco, Claudia Esteban y Mauro I. Decima
I. Introducción
II. La transformación digital del juicio ejecutivo fiscal cordobés: una mirada desde la labor judicial (por Claudia Smania y Verónica Viglianco)
2.1. El Fuero de Ejecuciones Fiscales
2.1.1. Estructura del Fuero de Ejecución Fiscal en Córdoba Capital
2.1.2. Legislación y características del trámite del juicio ejecutivo fiscal
2.2. El proceso de transformación digital del Poder Judicial con acento cordobés
2.2.1. Primera etapa (2000-2016): expediente papel con apoyo de herramientas tecnológicas para su gestión
2.2.2. Segunda etapa (2016-2019): expediente mixto (papel y electrónico)
2.2.2.1. Jaque a la tramitación en soporte papel del expediente judicial
2.2.3. Tercera etapa (2019-hoy): expediente 100% electrónico
2.2.3.1. Réquiem para la impresora
2.2.4. Cuarta etapa (2022-hoy): expediente electrónico con inteligencia artificial
2.2.4.1. Despacho Automatizado con Inteligencia Artificial (DACIA). La experiencia de trabajo interdisciplinario
2.2.4.2. Metodología de trabajo previa y prueba piloto
2.2.4.3. Ventajas de la utilización de la herramienta
2.2.4.4. ¿Cómo se sigue?
III. Cómo se introdujo la inteligencia artificial en los procesos electrónicos del Poder Judicial de Córdoba (por Claudia Esteban y Mauro Décima, directora y subdirector del área de Modernización)
3.1. La solución DACIA
3.1.1. Despacho Automatizado con Inteligencia Artificial
3.2. Circuitos de trabajo
3.2.1. Despacho electrónico común vs. despacho automatizado
3.3. Componentes técnicos de la solución
3.3.1. Módulo PI
3.3.2. Plataforma de tramitación electrónica
3.3.3. Módulos de integración entre PI y la Plataforma de tramitación electrónica
3.4. Resultados
IV. Explorando el potencial del ChatGPT en la gestión del proceso ejecutivo fiscal
4.1. Integración del ChatGPT con DACIA
4.2. Otras soluciones de mejora a través de los modelos de lenguaje de inteligencia artificial
Segunda parte
Mercado de trabajo, legaltech, formación de talento y educación
Capítulo 1
Reconversión del mercado de trabajo. Reingeniería de procesos basada en diseño inteligente
Interludio. Amor con escalas laborales: acelerar la reconversión y proteger a los más vulnerables
Juan G. Corvalán
I. Pronósticos fatalistas vs. menor desempleo
II. ¿Más IA generativa implica más eficiencia?
III. Las lecciones aprendidas que subsisten al uso masivo de IA generativa
El impacto de la inteligencia artificial en el mundo del trabajo
Milagros Etcheberry
I. Introducción
II. Problemáticas de actualidad
2.1. Percepciones sobre el desempleo tecnológico
2.2. ¿Más automatización = desempleo?
2.3. La polarización en el empleo
2.4. Tecnologías regulares o vacías
2.5. Burocratización física como impedimento
2.6. Plataformas digitales: precarización del trabajo, competencia desleal y brecha digital
2.7. Sesgos, patrones poco éticos, seguridad y privacidad en el mundo del trabajo
III. Algunas respuestas
3.1. Enfoque basado en tareas. Investigaciones y aplicaciones prácticas llevadas a cabo desde el UBA IALAB y el Ministerio Público Fiscal de la Ciudad Autónoma de Buenos Aires. Experiencia Prometea
3.2. Preparación del contexto. La importancia de la sinergia entre el empleado y el experto en inteligencia artificial en miras a una burocracia inteligente
3.3. Cobotización (coworking entre personas y máquinas)
3.3.1. Ejemplos de proyectos que utilizan estos enfoques o que los combinan para potenciar actividades
3.4. Procesos de reconversión
3.4.1. Redefinición del trabajo y rediseño de puestos de trabajo
3.4.2. Casos prácticos en Argentina
3.4.2.1. Acuerdo de Empleabilidad - AUSA/SEC - Programa “Autopistas sin Barreras”
3.4.2.2. Reconversión Fiscalía General Adjunta en lo Contencioso Administrativo y Tributario del Ministerio Público Fiscal de la Ciudad de Buenos Aires
IV. Desafíos por delante
4.1. Accesibilidad a la tecnología y el aprendizaje tecnológico
4.2. Automatizar para humanizar. Equilibrio de propósitos
4.3. Sistemas, organismos o laboratorios de reconversión de tareas
4.4. Fomento del desarrollo de nuevas capacidades y habilidades del mercado laboral. El aprendizaje permanente para toda la vida. Retorno de inversión y competitividad. Articulación sector público, privado, trabajador y educativo
4.5. Inversión sector público y privado
4.6. Regulación dinámica
4.7. Políticas de estado sustentables y sostenibles
V. Nuevos paradigmas de trabajo
VI. Nuevas habilidades
VII. Conclusiones
Industria 4.0 y gestión laboral por inteligencia artificial. Las plataformas de trabajo y los nuevos desafíos del derecho laboral
Rômulo Soares Valentini
I. A indústria 4.0, a Revolução Informacional e o mercado de trabalho
II. Nuevas tecnologías y transformación de las relaciones de producción en la sociedad del siglo XXI
2.1. Nuevos modelos de organización empresarial
2.2. Capitalismo de datos
2.3. Inteligencia artificial aplicada a procesos de trabajo y subordinación algorítmica
2.4. Plataformas de trabajo
III. Conclusiones
Evaluación del impacto de la inteligencia artificial generativa en el empleo y las organizaciones. Identificación de nuevas habilidades laborales. Guía metodológica
Juan G. Corvalán, Enzo M. Le Fevre Cervini, Soledad Guilera, Belén Carreira, Melisa Raban, Mariana Sánchez Caparrós, Carina M. Papini, Giselle Heleg y María Victoria Carro
I. Introducción
II. Objetivo de la investigación: medición de impacto y detección de nuevas habilidades
III. Sobre el alcance de los sistemas de IA generativa que se utilizarán
IV. Metodología a seguir para la evaluación de impacto de la IAG en el empleo
4.1. Sectores e industrias comprendidos en la investigación. Equipos de trabajo
4.2. Identificación de casos de uso y sus respectivas tareas, subtareas y microtareas y el armado de equipos
4.2.1. Identificación de casos de uso
4.2.2. Identificación de tareas, subtareas y microtareas
4.2.3. Armado de equipos
4.3. Definición de las métricas aplicables a la evaluación de impacto
4.3.1. Eficiencia
4.3.2. Grado de automatización de la tarea
4.3.3. Eficacia: incidencia de la IAG en la ejecución de la tarea
4.4. Procedimiento de evaluación de impacto
4.4.1. Recolección de datos
4.4.2. Medición de la eficiencia
4.4.3. Medición del grado de automatización de la tarea
4.4.4. Medición de la incidencia de la IAG en la ejecución de la tarea
4.4.5. Adaptación, calidad y experiencia
V. Metodología a seguir para la identificación de nuevas habilidades
5.1. Identificación de nuevas habilidades
5.2. Procedimiento para vincular tareas/subtareas/microtareas con nuevas habilidades
VI. Plan de trabajo
VII. Glosario
VIII. Líderes de investigación
Inteligente por diseño. Reingeniería holística de procesos para el Club de Amigos
Juan G. Corvalán y Carina M. Papini
I. Introducción y contexto
II. Club de amigos de la Ciudad de Buenos Aires
III. Los desafíos y objetivos
IV. Relevamiento, diagnóstico y reingeniería. Propuestas de automatización y aplicación de IA por segmentos
4.1. Segmento 1: inscripciones
4.2. Segmento 2: seguimiento inteligente del desempeño niño, niña o adolescente en el club
4.2.1. Asistencia
4.2.2. Inasistencias reiteradas
4.2.3. Operaciones durante el desarrollo
4.3. Segmento 3: gestión de la deserción, asignación de cupos y proyección prematura de necesidades
V. Historias de usuario
VI. Habilidades de un futuro sistema
6.1. Asistencia
6.2. Automatización inteligente
6.3. Tablero de visualización inteligente
6.4. Predicciones por reglas ponderadas
VII. Resultados que podrían obtenerse
VIII. Aclaraciones y medidas para la protección de niñas, niños y adolescentes
Inteligente por diseño: reingeniería de procesos vinculados al transporte. Hipótesis de automatización y predicción
Juan G. Corvalán y Carina M. Papini
I. Introducción
II. Contexto
III. Finalidad
IV. Relevamiento y diagnóstico. Problemática detectada y segmentos estratégicos
V. Datos vinculados a los segmentos críticos seleccionados
VI. Elaboración de mapas de datos y procesos
6.1. Función de los mapas
6.2. Mapas decisionales
VII. Elaboración de actas
7.1. Problemáticas
7.2. Posibles soluciones
VIII. Elaboración de informes
IX. Elaboración de historias de usuario
X. Listado de cuestiones a medir
XI. Habilidades de los sistemas de inteligencia artificial
11.1. Automatización inteligente
11.2. Detección inteligente
11.3. Calendario inteligente
11.4. Estadísticas dinámicas
11.5. Tablero de visualización
Capítulo 2
Legaltech: transformación de estudios jurídicos y departamentos legales
De los sistemas inteligentes de medición del caos al ChatGPT-3 y la asistencia a los abogados de la “Última milla”
Horacio R. Granero
I. El derecho, la técnica y el caos
II. La técnica al servicio del abogado
2.1. Un poco de historia
2.2. La búsqueda de soluciones nuevas
2.2.1. Los sistemas expertos: una solución solo parcial para casos puntuales
2.2.2. La inteligencia artificial: ¿hacia un nuevo concepto de verdad jurídica?
III. El concepto de entropía y su utilización como herramienta al servicio del derecho
IV. Inteligencia artificial y el Código de Hammurabi
V. La tecnología treinta años después: el reino de los datos y la diferencia entre predicción y juicio
VI. Los programas de legal analytics
VII. Sherlock-Legal, una solución argentina
VIII. Aprovechamiento de GPT-3 para programas de razonamiento legal
IX. ¿Con ChatGPT 3 llegó el “abogado robot”?
X. Conclusión. Los “abogados de la última milla”
Del valor de los datos a la adaptación de soluciones: algunos aprendizajes del pionero de legaltech en Argentina
Pablo Balancini y Juan Lipera
I. El contexto
II. Los inicios
III. Acerca de nuestros valores y metodología de trabajo
IV. El caso de éxito sobre prevención de fraude
V. El caso de éxito sobre gestión de reclamos
VI. Los resultados
Brevity. Más tiempo para los abogados del futuro
Ezequiel Braun Pellegrini
I. Introducción
II. La adopción de nuevas tecnologías en el ámbito del derecho. Algunos mitos y verdades
III. El futuro del trabajo y la abogacía: los abogados 4.0
3.1. Los nuevos conocimientos
3.2. Las habilidades del futuro
IV. La paradoja del cambio tecnológico: el tiempo
V. Brevity: un nuevo miembro en tu equipo legal
5.1. Soluciones simples
5.2. La migración a la nube y la seguridad informática
5.3. El modelo de negocio de la economía digital: software as a service
VI. Reflexiones adicionales: por qué es fundamental nuestra adaptación como abogados
6.1. Un problema estructural de diseño
6.2. Principios fundamentales
6.3. Principios operativos
VII. Propuesta final al lector: enfoque en tareas y segmentación
VIII. Anexo I
Inteligencia profesional: un diferencial frente a la IA
Gabriela Marsiglia y María Paula Rennella
I. Dónde estamos. La era de la complejidad
II. Qué se espera de los profesionales
III. ¿Y los abogados?
IV. La formación
V. ¡De la formación a los superpoderes!
5.1. La potencia de ser personas 360 o neogeneralistas
5.2. La potencia de pensar rápido y en grande
5.3. La potencia de la mente sintética
5.4. La potencia de la autenticidad
5.5. La potencia de la formación profesional híbrida
5.6. La potencia del aprendizaje continuo, sumando conocimiento de distintas disciplinas
5.7. La potencia de tener un propósito orientador
5.8. La potencia de tener mentalidad digital
5.9. La potencia de la antifragilidad
VI. Nuevos trabajos para abogados
VII. La pasión por la profesión
Capítulo 3
Inteligencia artificial y educación
Inteligencia artificial: un nuevo desafío para la educación
Débora Schapira
I. Introducción
II. Inequidad e inclusión
III. Acerca de las competencias profesionales
IV. Acerca del futuro del empleo
V. Acerca de la privacidad y ética de los datos
VI. Acerca de la planificación de la gestión educativa y el uso estratégico de datos
VII. ChatGPT: ¿aliado o enemigo de la educación?
Inteligencia artificial para mejorar el éxito estudiantil con enfoque en la prevención de la deserción universitaria
Dirección: Débora Schapira y Juan G. Corvalán Coautores y equipo de investigación UBA IALAB: Débora Schapira, Juan G. Corvalán, Laura Díaz Dávila, Melisa Raban y María Victoria Carro
I. Introducción
II. Resultados del monitoreo de las experiencias seleccionadas
2.1. Sobre los actores intervinientes
2.1.1. Lecciones aprendidas
2.1.2. Configuración estructural
2.1.3. Desafíos y oportunidades
2.2. Sobre las técnicas de inteligencia artificial
2.2.1. Lecciones aprendidas
2.2.2. Configuración estructural
2.2.3. Desafíos y oportunidades
2.3. Sobre las plataformas utilizadas
2.3.1. Lecciones aprendidas
2.3.2. Configuración estructural
2.3.3. Desafíos y oportunidades
2.4. Sobre la privacidad de los datos
2.4.1. Lecciones aprendidas
2.4.2. Configuración estructural
2.4.3. Desafíos y oportunidades
2.5. Sobre sesgos negativos
2.5.1. Lecciones aprendidas
2.5.2. Configuración estructural
2.5.3. Desafíos y oportunidades
2.6. Sobre la interacción humano-IA
2.6.1. Lecciones aprendidas
2.6.2. Configuración estructural
2.6.3. Desafíos y oportunidades
2.7. Sobre los resultados obtenidos
2.7.1. Lecciones aprendidas
2.7.2. La evidencia a nivel de los datos cuantitativos
2.7.3. La evidencia a nivel de la investigación cualitativa
III. Acerca del éxito estudiantil
IV. Estrategia para el éxito estudiantil. Deserción universitaria: análisis de los factores de riesgo
4.1. Educación superior en Colombia
4.2. Modelos de análisis de la deserción
4.2.1. La deserción en función de las trayectorias académicas
4.2.2. Modelos psicológicos
4.2.3. Modelos sociológicos
4.2.4. Modelos económicos
4.2.5. Modelos organizacionales
4.2.6. Modelo de interacción
V. Diseño de los sistemas de alerta temprana: la evidencia de los métodos de investigación en los casos de estudio
5.1. Desafíos y oportunidades
VI. Recomendaciones. Líneas estratégicas para un Plan de Acción
6.1. Innovación en soluciones de estrategia educativa
6.2. Innovación en el uso estratégico de datos e inteligencia artificial
6.3. Aspectos tecnológicos y sistemas. Metodología
6.3.1. Etapas, requerimientos y algoritmos
6.3.1.1. Pasos previos
6.3.1.2. Análisis de datos
6.3.1.3. Intervención de los algoritmos
VII. Propuesta estructura organizativa y el equipo de trabajo de la Universidad del Rosario. Enfoque holístico y transdisciplinario
7.1. Enfoque basado en datos
7.2 Estructura organizativa. Perfiles. Trabajo interdisciplinario
El impacto de ChatGPT en la enseñanza del derecho: resultados de pruebas piloto
Juan G. Corvalán y Débora Schapira
Infografía sobre ChatGPT en la educación: recomendaciones, usos, oportunidades y desafíos
Tomo IV
Presentación de los autores
Capítulo 1
Administración pública y derecho tributario
Actividad administrativa automatizada. Inteligencia artificial, potestad reglamentaria algorítmica, delegación algorítmica, acto administrativo automatizado y reserva de humanidad
Juan G. Corvalán, Gustavo Sá Zeichen y Lihué M. Albertsen
I. El acto administrativo y sus elementos esenciales. La voluntad y la competencia en el paradigma clásico
II. Introducción a la problemática: la competencia y la voluntad en el marco de la actividad administrativa automatizada
III. Intermediación tecnológica entre la voluntad, la competencia y la autoprogramación normativa automatizada
IV. Seis niveles de automatización. La “autonomía” de los sistemas inteligentes
V. Impacto de la automatización en el principio de competencia. ¿Delegación algorítmica?
VI. Los nuevos “legisladores” y “cuasilegisladores” del mundo digital. El nacimiento de la potestad reglamentaria algorítmica
VII. Coexistencia de distintos niveles de automatización y de aplicación concreta de sistemas inteligentes en la actividad administrativa
7.1. Autoejecución administrativa automatizada
7.2. El caso de la app Cuidar
VIII. La lógica del sistema automatizado “espejo”. Nuevos modos de viciar la voluntad
IX. Apuntes para una teoría general de la actividad administrativa automatizada
9.1. El presupuesto voluntad en la actividad administrativa automatizada
9.2. La competencia en la actividad administrativa automatizada
X. Interdicción de arbitrariedad algorítmica y prohibición general de habilitar una discrecionalidad algorítmica
XI. Nuevos principios y derechos de la actividad administrativa automatizada
XII. Reserva de humanidad, pisos mínimos de intervención humana y “control humano posterior suficiente”
Infografía contratación inteligente
Inteligencia artificial generativa y Administración Pública. Una aproximación inicial basada en el uso de ChatGPT
Juan G. Corvalán, Antonella Stringhini y Mariana Sánchez Caparrós
I. Introducción. La llegada de la IA generativa y su impacto en la Administración Pública
II. Inteligencia artificial generativa en la Administración Pública: oportunidades y casos de uso
III. El lado oscuro de la IA generativa en la Administración Pública: riesgos y desafíos asociados a su empleo
3.1. Riesgos asociados al uso de IA generativa
3.1.1. Búsqueda de datos
3.1.2. Ausencia de fuentes de información
3.1.3. Falta de transparencia y explicabilidad
3.1.4. Dependencia tecnológica, sobreconfianza y reducción o anulación de la supervisión humana
3.1.5. Sobrecarga de información
3.2. Desafíos asociados al uso de IA generativa
3.2.1. El tratamiento de los datos personales y/o sensibles
3.2.2. Los sesgos
3.2.3. La actualización temporaria
3.2.4. Alfabetización, sensibilización y capacitación permanente en función de la evolución del estado del arte de la IA generativa
3.2.5. Desafíos regulatorios
IV. Conclusiones
Anexo 1
Automatización e inteligencia artificial en los procesos de contratación de obras públicas. Relevamiento, diagnóstico e hipótesis de aplicación concreta
Juan G. Corvalán, Marcelo Gómez Grois y Antonella Stringhini
I. Introducción
II. Primera etapa: relevamiento, estado de situación y capacitación, sensibilización y alfabetización
III. Segunda etapa: gobernanza de datos
IV. Tercera etapa: análisis de modelos inteligentes y diseño de mock up
V. Conclusión: algunos resultados provisorios
La importancia del capital humano en la prestación de servicios públicos inteligentes
Enzo M. Le Fevre Cervini y Giselle Heleg
I. Introducción
II. Creación de capacidades institucionales y formación de talento para la prestación de servicios públicos inteligentes
2.1. Análisis y desarrollo de políticas
2.2. Prestación de servicios y participación ciudadana
2.3. Puesta en marcha y contratación
2.4. Gestión de redes
III. Acciones para la adopción de inteligencia artificial en el sector público
IV. Oportunidades, retos y desafíos de la inteligencia artificial generativa la prestación de servicios públicos inteligentes
V. Conclusiones
Inteligencia artificial y arbitraje en la Administración Pública
Vivian C. Lima López Valle y William I. Gallo Aponte
I. Introducción
II. La consensualidad en el derecho administrativo brasilero: el arbitraje como medio de negociación de conflictos en la relación jurídico-administrativa contemporánea
III. La inteligencia artificial aplicada en los procedimientos administrativos
IV. El arbitraje administrativo como instrumento de negociación para la solución de conflictos a través de inteligencia artificial
V. Consideraciones finales
Inteligencia artificial y derecho tributario
Adolfo Iriarte Yanicelli
I. Introducción
1.1. Marco económico desde donde se plantea la investigación
1.2. El problema de investigación
II. Ideas actuales sobre la relación jurídica tributaria
III. Las distintas revoluciones
3.1. Los retos y desafíos de la era que se avecina
3.1.1. Los retos en la esfera del trabajo
3.1.2. Los retos dentro del marco de la economía digitalizada
3.1.3. Los retos de la sociedad
3.1.4. Los retos de la inteligencia artificial
3.1.5. Necesidad de contar con recursos financieros
3.2. Las transformaciones de las relaciones tributarias
3.3. La revolución fiscal
3.4. La revolución desde los derechos de los contribuyentes
IV. La relación jurídica tributaria en la Cuarta Revolución Industrial
4.1. La relación jurídica tributaria digital y las herramientas tecnológicas para la fiscalización de los tributos
4.1.1. La alternativa tributaria
4.1.2. La utilización de inteligencia artificial para la recaudación y el control de tributos
4.2. Hacia la regulación de la inteligencia artificial
V. El impacto de la inteligencia artificial en la relación jurídica tributaria digital
VI. El impacto de la inteligencia artificial en la justicia tributaria
VII. A modo de conclusión
Perfilado y decisiones automatizadas en el ámbito de las administraciones tributarias. Propuesta de regulación de nuevos derechos tributarios para garantizar la transparencia y libertad algorítmica en el marco de la relación Fisco-contribuyente en el ámbito de la Administración Tributaria Nacional y de la Provincia de Córdoba
Natalia Cazón
I. Resumen ejecutivo
II. Introducción
III. Planteo del problema: la elaboración de perfiles y decisiones automatizadas en el seno de las administraciones tributarias. El uso de IA como elemento diferenciador y la necesidad de reforzar marcos legales tributarios
3.1. La necesidad de las administraciones tributarias de contar con un perfil tributario
3.2. El caso de la AFIP y el perfilado en el marco de sus amplias facultades de verificación y fiscalización
3.2.1. Entonces... ¿cómo perfila administración tributaria? Ciclo de perfilamiento fiscal
3.2.1.1. Recolección y almacenamiento
3.2.1.2. Tratamiento dinámico y constante
3.2.1.3. Elaboración y comparación de perfiles y rankings entre las distintas personas
3.2.1.4. Proceso de toma de decisiones y armonización tributaria federal
3.2.2. Estado de situación en la Provincia de Córdoba en cuanto al tratamiento de los datos y las categorías de contribuyentes. Avances hacia la Red Federal de Administraciones Tributarias
3.3. Los principios constitucionales en materia tributaria. Límite a la intromisión administrativa. A la luz de la transparencia y la publicidad
3.4. El perfilado como práctica permitida en las legislaciones de protección de datos y las decisiones automatizadas. Transparencia y libertad de elección como las principales preocupaciones de la elaboración de perfiles
3.5. El rol de las administraciones tributarias y la relación Fisco-contribuyente a través de los datos y la inteligencia artificial
3.6. La inteligencia artificial en el proceso de modernización del Estado argentino y la Provincia de Córdoba. El COVID como acelerador de incorporación de tecnología. Pero... ¿el derecho a la protección de los datos personales? ¿El ciudadano como centro de las políticas públicas? Otro motivo más para reforzar marcos normativos
IV. Nuevos derechos para los contribuyentes
V. Conclusión
Capítulo 2
Derecho penal, defensa y seguridad
Apuntes para una reforma procesal algorítmica
Luis Cevasco
Una mirada integral del fenómeno de la ciberdelincuencia y el impacto de la inteligencia artificial en las investigaciones digitales
Daniela Dupuy
I. Introducción
II. Marco jurídico en materia de ciberdelincuencia
2.1. Legislación penal de delitos informáticos
2.2. Carencia de normas procesales penales para investigaciones 4.0: de lo simple (2.2.1) a lo disruptivo e innovador (2.2.2)
2.2.1. Lo simple
2.2.1.1. Conservación rápida de datos
2.2.1.2. Orden de presentación
2.2.1.3. Registro y secuestro
2.2.1.4. Obtención de datos de tráfico y de contenido en tiempo real
2.2.2. Herramientas modernas en el nuevo escenario tecnológico
2.2.2.1. Predicción policial
2.2.2.1.1. Ciberpatrullaje
2.2.2.2. Agente encubierto digital
2.2.2.3. Allanamiento remoto
2.2.2.4. Software de reconocimiento facial
2.2.2.5. Software para predecir el riesgo de reincidencia
2.2.2.6. Nuevos métodos de vigilancia electrónica estatal
III. Conclusiones
Infografía sobre aplicaciones perversas. Bot crea deep fakes de menores de edad desnudas en Telegram
Predicción, prueba y derecho penal. Algunas líneas en ocasión del análisis del programa COMPAS Risk Assessment
María Elena Lumiento
I. El problema
II. La fundamentación y las teorías de la prueba
III. Inferencias probatorias empíricas
IV. Cómo funciona “COMPAS”
4.1. Generalidades
4.2. ¿Qué es el COMPAS score?
4.3. ¿Qué y cómo predice COMPAS?
V. “Loomis v. Wisconsin” y la prueba de los hechos
VI. Conclusiones
Inteligencia artificial y las decisiones sobre la libertad de las personas en el proceso penal
Flora S. Acselrad, Horacio S. Nager, Daniela R. Part, Carlos A. Reynoso, Vanesa M. Risetti Delión, Verónica A. Soto y Rosario Tatian
I. Introducción
II. Marco de análisis
III. La metodología para lograr un sistema automatizado
IV. Avances de la exploración
4.1. Determinación de indicadores: peligro de fuga y entorpecimiento de la investigación
4.2. Análisis de subindicadores dentro de cada grupo
4.2.1. Peligro de fuga
4.2.1.1. El pronóstico de pena
4.2.1.2. Proporcionalidad de la detención
4.2.1.3. Características de los hechos
4.2.1.4. Situaciones especiales de vulnerabilidad
4.2.1.5. Comportamiento procesal
4.2.1.6. Situación de arraigo
4.2.2. Indicador 2: peligro de entorpecimiento de la investigación
4.2.2.1. Determinación de la relación entre subindicadores
4.2.2.2. Elaboración de árboles de decisión respecto de cada subindicador
4.2.2.3. Determinación de la relación entre los indicadores de peligro de fuga y entorpecimiento
V. Conclusión
Razonamiento probatorio e inteligencia artificial en la construcción de los hechos jurídicamente relevantes en materia penal
Orión Vargas Vélez y Jhon N. Riaño Rojas
I. Introducción
II. Las etapas de la actividad probatoria como marco de referencia para la metodología desarrollada en el sistema experto “Fiscal Inteligente”
2.1. Primera etapa de la actividad probatoria: proposición de las pruebas
2.1.1. Relevancia de los hechos
2.2. Segunda etapa: ordenación de las pruebas
2.2.1. Pertinencia de las pruebas
2.3. Tercera etapa de la actividad probatoria: práctica de las pruebas
2.3.1. Credibilidad de las pruebas
2.3.2. Peso probatorio de cada una de las pruebas (valoración individual)
2.4. Cuarta etapa de la actividad probatoria: Valoración de las pruebas
2.4.1. Peso probatorio de las pruebas (valoración conjunta)
2.4.2. Patrones probatorios de corroboración y convergencia empleados por el sistema experto “Fiscal Inteligente” en la valoración conjunta
2.5. La decisión del fiscal con miras a la imputación y/o acusación
III. La domesticación de la incertidumbre y la imprecisión
3.1. El sistema baconiano de probabilidades
3.1.1. Propiedades del sistema baconiano de probabilidades
3.1.1.1. Regla de la conjunción
3.1.1.2. Regla de la disyunción
3.1.1.3. Propiedad de la negación
3.2. La lógica difusa
3.2.1. Conjuntos difusos y lógica difusa
IV. Conclusiones
Inteligencia artificial aplicada al estudio del derecho: análisis computacional de la jurisprudencia de casación penal
David Mielnik y Edgar Altszyler
I. Introducción
II. El análisis computacional del derecho
2.1. Cómo abarcar un derecho inabarcable
2.2. Algunas precisiones sobre inteligencia artificial
2.3. Inteligencia artificial para el estudio de las ciencias sociales y el derecho, en Argentina y el mundo
III. Modelado de tópicos latentes mediante IA
IV. Modelado de tópicos y jurisprudencia argentina
4.1. La muestra analizada
4.2. Los tópicos de casación penal
4.3. Tópicos más prevalentes
4.4. Los tópicos sustantivos de la parte especial
4.5. Violaciones de derechos humanos y violencia de género
4.6. Relación de la CFed. Casación Penal con la Corte Suprema y consigo misma
V. Conclusión
Impacto del uso de la inteligencia artificial y la robótica inteligente en la defensa
Gladys Stoppani
I. Resumen
II. Introducción
III. Aplicaciones militares de la inteligencia artificial y la robótica inteligente en la defensa
3.1. El combatiente
3.2. La IA en el apoyo de la decisión y planificación
3.3. Combate colaborativo
3.4. Mantenimiento de la condición operacional y logística
3.5. Ciberdefensa
3.6. Robótica y autonomía
3.6.1. Sistemas de armas letales autónomos (SALAS)
3.6.2. Las armas autónomas en la guerra entre Rusia y Ucrania
IV. Estrategias internacionales sobre el uso de la IA y la RI en la defensa
4.1. Estados Unidos
4.2. China
4.3. Rusia
4.4. Francia
V. Necesidad de un marco ético y jurídico robusto para el uso militar de la IA y la RI
5.1. Departamento de Defensa de los Estados Unidos
5.2. Naciones Unidas
5.3. OTAN
VI. Conclusiones
Inteligencia artificial aplicada a la seguridad
Alejandro D. Puglia
I. Antagonismos del reconocimiento facial
II. Ventajas y desventajas del reconocimiento facial
2.1. Ventajas
2.2. Desventajas
III. Los sistemas predictivos de delitos basados en IA
IV. Críticas y dudas éticas respecto al sistema de predicción de delitos
4.1. Crímenes de connotación alto con inteligencia artificial
4.2. Crímenes de connotación media con inteligencia artificial
4.3. Crímenes de connotación baja con inteligencia artificial
V. Las soluciones: luces y sombras
VI. Inteligencia artificial en materia de ciberseguridad
6.1. Prevención
6.2. Detección
VII. Una IA más segura
7.1. Seguridad de IA
7.2. Ciberataques impulsados por IA
7.3. Defensa de los mecanismos basados en la IA
Postludio. Paradojas tecnológicas de la historia: cómo aprovecharlas para enfocar la inteligencia artificial de manera sostenible
Juan G. Corvalán
I. El cantante sin voz y la batalla de Metallica
II. Gestionar paradojas: una tarea humana indelegable
Preludio
Bienvenidos a la era de la inteligencia artificial
I. Cuando el coyote se transforma en correcaminos
Convivimos con más de dos millones de pequeñísimos animales que están en el colchón, en la alfombra, en muebles tapizados, en la ropa de cama y en libros antiguos. Mi amiga Julieta es alérgica a ellos y por eso los conoce muy bien. Se trata de los ácaros, integrantes de la familia de los arácnidos, con un tamaño que oscila entre 0,2 y 0,5 milímetros. Aunque es casi imposible eliminarlos de tu casa, estas arañitas microscópicas tienen algo en común con esta era de la inteligencia artificial. También son invisibles muchos sistemas inteligentes que nos acompañan a los lugares más íntimos a través de computadoras y teléfonos celulares. Este nuevo mundo digital plagado de ácaros artificiales basados en IA, dejarán muy atrás a todos los superhéroes y mutantes de Marvel y DC Comic. Los “héroes”, los “villanos” y los que oscilan por ambas categorías; es decir, casi todos.
La inteligencia artificial (en adelante IA) y la automatización de la que habla todo el mundo, tiene una lógica simple: reemplazar, mejorar e incluso crear nuevas tareas que solo podían ser realizadas por el cerebro humano. Las proezas que se pueden generar en el living de una casa, se basan en ácaros artificiales que nos traen nuevas herramientas y conceptos antiguos que se transforman. Por ejemplo, es muy frecuente encontrar en los medios de comunicación la palabra algoritmo. Aunque se inventaron y se usan hace muchos siglos, esta noción es una de las mayores responsables de todo este tsunami de innovación.
Los algoritmos construyen puentes entre las computadoras, internet, las aplicaciones móviles, nuestros objetivos y necesidades. La unión entre una máquina expendedora, tu chocolate preferido y el dinero, presenta un “detrás de escena” basado en un conjunto reglas, fórmulas para hacer cálculos, o una serie metódica de pasos . Son los manuales de instrucciones del mundo digital que se escriben en idioma informático. Introducís una moneda, presionas un botón y ¡magia!: una golosina que cae es igual a un algoritmo que se ejecuta.
Ahora bien, cuando estamos en una sala de espera y queremos un refresco, ¿consideramos a la máquina expendedora “inteligente”? ¿Es razonable comparar los métodos que utilizan las computadoras para llegar a sus resultados con los complejos procesos biológicos que se dan en el cerebro?
El 15 de octubre de 1937 el genio de Jorge Luis Borges publicó un texto llamado “La máquina de pensar de Raimundo Lulio”. Esta máquina estaba hecha de tres discos concéntricos, divididos en espacios en los cuales podían colocarse distintos atributos. Por ejemplo, “poder”, “verdad” o “sabiduría”, así como también “rojo”, “azul”, “verde”, entre muchas opciones. Al girar los discos, era posible obtener una enorme cantidad de combinaciones de los distintos atributos, pudiendo llegar a muchas respuestas diferentes que hoy en día se podrían analizar desde un punto de vista probabilístico. Para Borges, la máquina creada a fines del siglo XIII no era capaz de un solo razonamiento, siquiera rudimental o sofístico .
Unos años más tarde Alan Turing, el padre de la computación y el inspirador de la película Código enigma, se formuló dos preguntas: ¿pueden pensar las máquinas? o ¿pueden las máquinas pensar? .
En la versión clásica de la informática, la inteligencia de máquina se asoció a respuestas preprogramadas. Por ejemplo, los algoritmos que están “detrás del telón” de los procesadores de texto. Cuando abre el programa “Microsoft Word”, y luego presiona la letra “a” en su teclado, en el nuevo documento en blanco aparece ese símbolo. Es decir, las posibilidades de potenciar la escritura entre su ordenador y un procesador de texto, en la Edad Media serían consideradas mágicas, imposibles y herejes. Ahora, como nos parece natural poder copiar y pegar miles de letras en menos de un segundo, comenzamos a llamar inteligencia artificial a cuestiones más complejas para nuestros ojos moldeados por esta era digital .
Si consideramos algunas analogías, cuentos y metáforas, es posible resumir las cuatro grandes cuestiones que nos introducen en esta trilogía entre humanos, máquinas e inteligencia.
Primero. Los aviones y los pájaros vuelan. Unos pueden transportar cientos de personas de un lado a otro, los otros no.
El cerebro extrae, selecciona, recorta y organiza datos e información disponible para tomar decisiones. La IA hace lo mismo, aunque con otros métodos, mayor capacidad de almacenamiento y a más velocidad. Aunque resulta imposible reproducir en máquinas a un órgano tan complejo, hay que considerar que los ingenieros en aviación no copiaron las técnicas de aprendizaje de los pájaros para construir los aviones modernos . Por eso es interesante remarcar un aspecto central en esta nueva dinámica: el desarrollo de la IA no consiste, al menos exclusivamente, en imitar el funcionamiento de organismos biológicos.
[...]
Librería casa central
Tucumán 1471
Local Facultad de Derecho
Figueroa Alcorta 2263
Teléfono de contacto
0810-266-4444