Erik Derner

Investigador Asociado

erikderner.es.md photo

Erik Derner es investigador en la Universidad Técnica Checa (CTU) en Praga, República Checa. Actualmente, co-lidera la tarea de seguridad de los modelos fundacionales generalistas multimodales (MGFM) en el proyecto ELLIOT. Anteriormente, trabajó como investigador postdoctoral en ELLIS Alicante, centrando su trabajo en las implicaciones sociales y éticas de la inteligencia artificial generativa, incluyendo aspectos de seguridad, psicología y sesgos en lenguas con pocos recursos. Obtuvo su doctorado en Robótica e Inteligencia Artificial por la CTU en Praga en 2022. Su tesis doctoral recibió el Premio Werner von Siemens 2023 en la categoría de la Industria 4.0 y por el Premio del Decano de la Facultad de Electrotecnia de la Universidad Técnica Checa.

Sitio web: https://erik-derner.github.io/research/
Enlace al perfil del ORCID: ORCID iD icon https://orcid.org/0000-0002-7588-7668

Publicaciones en asociación con ELLIS Alicante.

2025

09/29
Arnaiz-Rodríguez, A., Baidal, M., Derner, E., Layton Annable, J., Ball, M., Ince, M., Perez Vallejos, E., & Oliver, N. (2025). Between Help and Harm: An Evaluation of Mental Health Crisis Handling by LLMs. Under review.
08/04
Hagendorff, T., Derner, E., & Oliver, N. (2025). Large Reasoning Models Are Autonomous Jailbreak Agents. arXiv:2508.04039.
08/01
Vienna, AT
Derner, E., Sansalvador de la Fuente, S., Gutiérrez, Y., Moreda, P., & Oliver, N. (2025). Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora. 6th Workshop on Gender Bias in Natural Language Processing (GeBNLP), ACL 2025.
08/01
Vienna, AT
Derner, E., & Batistič, K. (2025). Beyond Words: Multilingual and Multimodal Red Teaming of MLLMs. First Workshop on LLM Security (LLMSEC), ACL 2025.
07/31
Vienna, AT
Derner, E., & Batistič, K. (2025). Gender Representation Bias Analysis in LLM-Generated Czech and Slovenian Texts. 10th Workshop on Slavic Natural Language Processing (Slavic NLP 2025), ACL 2025.
07/31
Vienna, AT
Baidal, M., Derner, E., & Oliver, N. (2025). Guardians of Trust: Risks and Opportunities for LLMs in Mental Health. Fourth Workshop on NLP for Positive Impact (NLP4PI), ACL 2025.
02/25
Philadelphia, US
Derner, E., Sansalvador de la Fuente, S., Gutiérrez, Y., Moreda, P., & Oliver, N. (2025). Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora. Collaborative AI and modeling of Humans (CAIHu) - Bridge program at AAAI 2025.

2024

08/26
Derner, E., Batistič, K., Zahálka, J., & Babuška, R. (2024). A Security Risk Taxonomy for Prompt-Based Interaction with Large Language Models. IEEE Access, 12, 126176-126187.
07/23
Derner, E., Kučera, D., Oliver, N., & Zahálka, J. (2024). Can ChatGPT Read Who You Are?. Computers in Human Behavior: Artificial Humans, 2(2), 100088.
06/19
Derner, E., Sansalvador de la Fuente, S., Gutiérrez, Y., Moreda, P., & Oliver, N. (2024). Leveraging Large Language Models to Measure Gender Bias in Gendered Languages. arXiv:2406.13677.
02/21
Vancouver, CA
Derner, E., Kučera, D., Oliver, N., & Zahálka, J. (2024). Can ChatGPT Read Who You Are?. Collaborative AI and Modeling of Humans, AAAI Bridge Program.

2023

12/26
Derner, E., Kučera, D., Oliver, N., & Zahálka, J. (2023). Can ChatGPT Read Who You Are?. arXiv:2312.16070.
11/19
Derner, E., Batistič, K., Zahálka, J., & Babuška, R. (2023). A Security Risk Taxonomy for Large Language Models. arXiv preprint arXiv:2311.11415.