Téma disertační práce

Využití transformerů při zpracování doménově orientovaných znalostí v oblasti počítačových sítích

Ak. rok 2024/2025

Školitel: Matoušek Petr, doc. Ing., Ph.D., M.A.

Ústav: Ústav informačních systémů

Programy:
Informační technologie (DIT) - prezenční studium
Information Technology (DIT-EN) - prezenční studium

Popis tématu:

Transformátory jsou velké jazykové modely založené na hlubokém učení. Používají se převážně pro zpracování přirozeného jazyka, uplatnění nacházejí ale i pro analýzu dokumentů, vyhledávání informací apod. 

Téma se zaměřuje na využití velkých jazykových modelů typu LLM pro vyhledávání informací v technické dokumentaci, například technických zprávách, manuálech či databázi znalostí. Výzkum zahrnuje zpracování vstupních doménově orientovaných dokumentů a jejich převod do jazykového modelu pro využití techniky zvané učení přenosem.

Cílem výzkumu je popsat a optimalizovat využití transformátorů  pro efektivní vyhledávání doménově specifických informací, například podpora správců sítě při řešení bezpečnostních incidentů, diagnostiku sítě apod.

Literatura:

  • Tang, Zineng, et al. "Unifying vision, text, and layout for universal document processing." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023.
  • Pilault, Jonathan, et al. "On extractive and abstractive neural document summarization with transformer language models." Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP). 2020.
  • Rothman, Denis, and Antonio Gulli. Transformers for Natural Language Processing: Build, train, and fine-tune deep neural network architectures for NLP with Python, PyTorch,  SensorFlow, BERT, and GPT-3. Packt Publishing Ltd, 2022.
Nahoru