14/2/26


Análisis profundo del caso de la audiencia suspendida en la acción de protección de Emelec y su vínculo con la protección de datos personales.


El artículo que enlazas describe un incidente ocurrido el 12 de febrero de 2026 en la audiencia de la **acción de protección** presentada por el socio Pedro Merchán contra el Club Sport Emelec. El objetivo era dejar sin efecto la convocatoria a elecciones (programadas para el 21 de febrero de 2026 en el estadio George Capwell), argumentando que solo 842 socios están habilitados según el reglamento y que se vulneran derechos de participación al no permitir otras candidaturas. Se solicitó también una medida cautelar para suspender el proceso electoral.

Durante la audiencia virtual vía Zoom, un usuario no autorizado ("Javier", identificado como tercero ajeno) insertó un video deepfake generado con inteligencia artificial (IA)** del abogado Guillermo Moreira (defensor de Emelec). El video mostraba al letrado en una situación degradante (desnudándose y exhibiendo musculatura). La jueza Gareyng Mata, inicialmente, amenazó con expulsar al abogado pensando que era él quien lo había subido, pero al verificar el sabotaje, suspendió la diligencia y la reprogramó para el 18 de febrero de 2026, solicitando apoyo técnico. Moreira denunció el hecho en X como un acto de "troleo" y sabotaje.

Este caso no es solo un "troleo" judicial: expone vulnerabilidades graves en la ciberseguridad de las audiencias virtuales y un claro riesgo de violación a la protección de datos personales, agravado por el uso de IA. A continuación, profundizo en los aspectos solicitados: protección de datos, artículos de ley, jurisprudencia y el problema de los jueces con bajo conocimiento tecnológico.

1. Protección de datos personales en este contexto

El deepfake implica tratamiento ilícito de datos personales del abogado Moreira:
- Su imagen facial y posiblemente voz son datos biométricos (únicos y relativos a características físicas para identificación).
- La creación y difusión del video sin consentimiento viola principios básicos: finalidad legítima, consentimiento y seguridad
- En audiencias judiciales, los datos (imágenes, voces, identidades) se procesan en plataformas digitales, lo que los convierte en un "espacio de privacidad" protegido. El sabotaje expone fallos en la cadena de custodia digital y permite accesos no autorizados.

Esto se agrava porque ocurre en un proceso judicial, donde la transparencia y seguridad son obligaciones del Estado (art. 168 Constitución). El incidente podría configurarse como vulneración al derecho a la intimidad, honra y reputación (art. 66 nums. 3 y 19 Constitución), además de un riesgo de discriminación o daño moral por el contenido degradante.

2. Artículos de ley relevantes en Ecuador

Constitución de la República (2008)
- Art. 66, numeral 19: "El derecho a la protección de datos de carácter personal, que incluye el acceso y la decisión sobre información y datos de este carácter, así como su correspondiente protección. La recolección, archivo, procesamiento, distribución o difusión de estos datos personales requerirán la autorización del titular o el mandato de ley".
- Art. 92: Garantía de habeas data (acción para acceder, rectificar, actualizar o eliminar datos personales en poder de entidades públicas o privadas).
- Art. 66, numeral 3: Derecho a la honra y reputación (afectado por el deepfake).
- Art. 11: Los derechos son directamente exigibles.

Ley Orgánica de Protección de Datos Personales (LOPDP, 2021)
Esta es la norma clave (publicada en RO Suplemento 459 del 26/05/2021). Artículos relevantes:

| Aspecto | Artículos clave | Contenido principal |

| Definiciones | Art. 4 | Datos personales: cualquier información identificable. Datos biométricos: rasgos faciales, voz, etc. (el deepfake los usa). Datos sensibles: aquellos que pueden generar discriminación (imagen íntima). |
| Principios | Art. 10 | Juridicidad, lealtad, transparencia, finalidad, minimización, proporcionalidad, confidencialidad, seguridad y responsabilidad proactiva. |
| Consentimiento | Arts. 7-8 | Debe ser libre, específico, informado e inequívoco. Revocable en cualquier momento. Excepciones limitadas (no aplican aquí). |
| Medidas de seguridad | Arts. 37-42 | Obligación de implementar medidas técnicas y organizativas (cifrado, autenticación, sala de espera en Zoom). Protección "desde el diseño" y "por defecto". Notificación de brechas en 3-5 días. |
| Derechos de los titulares | Arts. 12-24 | Acceso, rectificación, eliminación, oposición (incluso a perfiles automatizados con IA), portabilidad y no a decisiones automatizadas. |
| Sanciones| Arts. 47, 65-72 (y reformas) | Infracciones graves: multas de 0,7% a 1% del volumen de negocio o 10-20 salarios básicos unificados. Medidas correctivas: cese del tratamiento, eliminación de datos. La Superintendencia de Protección de Datos Personales (SPDP) impone sanciones (ejemplo reciente: multas a LIGAPRO y FEF por apps de datos de hinchas). |

Otras normas

- Código Orgánico Integral Penal (COIP): Art. 212 (suplantación de identidad, agravada con IA). Posibles delitos contra la intimidad (arts. 178-180) o fraude informático.
- Protocolos de audiencias telemáticas (Consejo de la Judicatura y Corte Nacional, actualizados 2024): Exigen contraseñas, sala de espera, verificación de identidad y grabación segura. Zoom debe usarse con licencias Enterprise Plus (seguridad básica, pero insuficiente contra trolls).

 3. Jurisprudencia relevante

- Corte Constitucional: Sentencia 001-2014-PJO-CC (habeas data como garantía efectiva). Sentencia 2064-14-EP/21 (datos sensibles y espacio de privacidad; aplica a imágenes íntimas o manipuladas).
- Casos emergentes con IA/deepfakes: Aún escasos, pero doctrina y artículos académicos (2024-2025) destacan la necesidad de aplicar LOPDP por analogía. Ejemplos:
  - Análisis en revistas como Revista Lex y Revista de Derecho Penal: Deepfakes violan LOPDP y COIP; se proponen tipos penales específicos.
  - Sanciones SPDP (diciembre 2025): Multas a entidades deportivas por tratamiento indebido de datos biométricos en apps (precedente para Emelec, club deportivo).
- Internacional (referencia): GDPR (Europa) y leyes latinas (Brasil, Colombia) tratan deepfakes como tratamiento de datos biométricos. En Ecuador, la jurisprudencia evoluciona hacia mayor protección en entornos digitales.

No hay sentencia exacta sobre "troleo en Zoom judicial", pero el caso podría generar una (vía acción de protección o queja ante SPDP).

 4. Jueces sin conocimiento de tecnología: un problema sistémico

El incidente ilustra analfabetismo digital judicial:
- La jueza confundió el deepfake con intervención real del abogado → falta de comprensión de IA, edición en tiempo real y spoofing en Zoom.

- Problemas comunes:
  - Jueces y secretarios con formación limitada en ciberseguridad (protocolos existen, pero su aplicación es deficiente).
  - Plataformas como Zoom son vulnerables a "Zoom bombing" (troleo masivo), pese a medidas como sala de espera.
  - Estudios (ej. "Justicia electrónica en Ecuador", Función Judicial): Brecha entre avance tecnológico y capacitación. Muchos jueces priorizan audiencias presenciales por desconfianza en lo digital.
- Consecuencias: Retrasos (como aquí), vulneración de derechos y pérdida de confianza en la justicia.
- Soluciones urgentes:
  - Capacitación obligatoria en IA, deepfake detection y forense digital (ya hay pericias en SNMLCF, pero insuficientes).
  - Apoyo técnico permanente en audiencias (como solicitó la jueza).
  - Actualización de protocolos con IA (detección automática de manipulaciones).
  - Reforma legal para tipificar "sabotaje digital a diligencias judiciales".

Este caso es un llamado de atención para la Función Judicial: la digitalización (acelerada por la pandemia) trajo eficiencia, pero sin inversión en ciberseguridad y formación, genera riesgos como este. Emelec y Moreira podrían accionar por daños (civil/penal) y exigir investigación sobre el "Javier" (posible delito). La reprogramación del 18 de febrero será clave para ver cómo se maneja la tecnología esta vez.

No hay comentarios:

INTELIGENCIA ARTIFICIAL JURIDICA

Conferencia Internacional sobre Inteligencia Artificial para el Derecho ICAIL, de 2026, Singapur.

  21a Conferencia sobre Inteligencia artificial y Derecho. Fecha: 8 al 12 de junio de 2026 Lugar Universidad de Gestión de Singapur Yong Pun...