Ceuta 12 de enero de 2026
La irrupción de la Inteligencia Artificial en la Administración de Justicia ha motivado la primera queja formal contra un magistrado ante el Consejo General del Poder Judicial (CGPJ). El caso tiene como protagonista a un juez de Ceuta y se centra en el presunto uso incorrecto de herramientas de IA en una resolución judicial que habría citado jurisprudencia inexistente del Tribunal Supremo.
Según el escrito presentado ante el órgano de gobierno de los jueces, el titular del Juzgado de Instrucción número 5 de Ceuta, Antonio Pastor, habría utilizado de manera “errónea” sistemas de Inteligencia Artificial en una resolución que inadmitía un recurso, basándose en una supuesta doctrina del Supremo que, según el abogado denunciante, no existe.
El letrado Rachid Mohamed Hammu sostiene que el origen de la anomalía se encuentra en un informe previo de la Fiscalía, que habría citado una jurisprudencia inexistente del Alto Tribunal, incluso identificándola con número de resolución, año y fecha concretos, y atribuyéndole doctrina literal entrecomillada. A juicio del abogado, dichas sentencias no figuran en la jurisprudencia del Tribunal Supremo.
En su queja, Mohamed reprocha al magistrado “la ausencia absoluta de control y verificación” al asumir como propios los argumentos del Ministerio Público sin comprobar su veracidad. “El órgano judicial incorpora el informe sin la más mínima verificación, asumiéndolo como propio y convirtiéndolo en fundamento directo de su decisión”, señala el escrito.
El juez inadmitió el recurso presentado por el abogado apoyándose en esa supuesta doctrina, lo que, a juicio del denunciante, tiene consecuencias de gran calado. “El efecto de esta práctica es devastador desde el punto de vista constitucional”, advierte Hummu, quien subraya que el hecho de que la resolución judicial acoja los argumentos de la Fiscalía no atenúa la gravedad del caso, sino que la agrava.
“El juez no puede renunciar a su deber elemental de comprobar que la jurisprudencia en la que se apoya existe realmente. Cuando un órgano judicial hace suyos unos fundamentos, responde plenamente de su veracidad y de sus consecuencias”, afirma el letrado.
Para el abogado, la actuación denunciada reviste “una gravedad extraordinaria, carente de precedentes conocidos y profundamente lesiva de derechos fundamentales”, y no puede explicarse como un simple error jurídico ni como una discrepancia interpretativa, sino como “un fallo estructural en la elaboración y control de una resolución judicial”.
Según destaca el propio denunciante, se trata de la primera vez que se eleva al CGPJ una queja contra un magistrado por sospechas de haber utilizado Inteligencia Artificial en sus resoluciones. Sí existe, no obstante, un precedente reciente en Canarias, aunque referido a un abogado. En ese caso, el Tribunal Superior de Justicia investiga a un letrado que presentó un recurso de apelación citando jurisprudencia e informes oficiales inexistentes, presuntamente generados por herramientas de IA.

Dos extractos del escrito de denuncia presentados ante el CGPJ por el abogado.
“El patrón es reconocible”, sostiene Mohamed. “Citas aparentemente precisas, con numeración y fechas concretas, acompañadas de frases categóricas que nunca han sido pronunciadas por el Supremo”. En su opinión, el problema no radica en la tecnología en sí, sino en “su uso irresponsable y acrítico, trasladando a las partes las consecuencias de una motivación judicial construida sobre contenidos ficticios”.


