Přizpůsobený transformer model pro efektivní získávání informací z učebnic

DSpace Repository

Language: English čeština 

Přizpůsobený transformer model pro efektivní získávání informací z učebnic

Show simple item record

dc.contributor.advisor Pluháček, Michal
dc.contributor.author Tawiah, John Akowuah
dc.date.accessioned 2024-07-23T13:16:22Z
dc.date.available 2024-07-23T13:16:22Z
dc.date.issued 2023-11-05
dc.identifier Elektronický archiv Knihovny UTB
dc.identifier.uri http://hdl.handle.net/10563/55707
dc.description.abstract Se vznikem a popularitou velkých jazykových modelů (LLM) bylo získávání informací vždy náročné. Tyto LLM jsou však trénovány na textovém korpusu internetu a trénovací data mají datum uzávěrky; proto jsou ve většině případů data při vydání modelu zastaralá. Tato práce by zkoumala možnost výzkumu řešení, které uživatelům umožní přístup ke stručným informacím z rozsáhlého korpusu, jako je výuková učebnice. Navrhovaným řešením je implementace aplikace Retrieval Augmentation Generation umožňující uživatelům pracovat s LLM pomocí jejich soukromých dat. Práce bude také zkoumat možnost použití tohoto přístupu lokálně namísto používání rozsáhlých a těžkopádných modelů online. Výsledky ukázaly, že tento přístup je proveditelný a funguje dobře pro různé učebnice bez ohledu na jejich velikost, a také výstupní výsledky jsou dobré. Tato práce poskytuje cenné poznatky o tom, jak architektura funguje, a poskytuje správné nástroje pro implementaci tohoto řešení.
dc.format 59
dc.language.iso en
dc.publisher Univerzita Tomáše Bati ve Zlíně
dc.rights Bez omezení
dc.subject LLM cs
dc.subject RAG cs
dc.subject textový korpus cs
dc.subject LLM en
dc.subject RAG en
dc.subject text corpus en
dc.title Přizpůsobený transformer model pro efektivní získávání informací z učebnic
dc.title.alternative Customized Transformer Model for Efficient Extraction of Information from Textbooks
dc.type diplomová práce cs
dc.contributor.referee Kotyrba, Martin
dc.date.accepted 2024-06-05
dc.description.abstract-translated ABSTRACT With the emergence and popularity of Large Language Models (LLM), obtaining information has always been challenging. However, these LLMs are trained on the text corpus of the Internet, and the training data has a cut-off date; hence, in most cases, the data is out of date when the model is released. This thesis would investigate the possibility of researching a solution that allows users to access concise information from a large corpus like an educational textbook. The proposed solution is to implement a Retrieval Augmentation Generation application enabling users to work with an LLM using their private data. The thesis will also investigate the possibility of using this approach locally instead of using vast and cumbersome models online. The results demonstrated that this approach is feasible and works well for different textbooks irrespective of their size, and output results are also good. This thesis provides valuable insights into how architecture works and provides the right tools to implement this solution.
dc.description.department Ústav informatiky a umělé inteligence
dc.thesis.degree-discipline Software Engineering cs
dc.thesis.degree-discipline Software Engineering en
dc.thesis.degree-grantor Univerzita Tomáše Bati ve Zlíně. Fakulta aplikované informatiky cs
dc.thesis.degree-grantor Tomas Bata University in Zlín. Faculty of Applied Informatics en
dc.thesis.degree-name Ing.
dc.thesis.degree-program Information Technologies cs
dc.thesis.degree-program Information Technologies en
dc.identifier.stag 66705
dc.date.submitted 2024-05-13


Files in this item

Files Size Format View Description
tawiah_2024_dp.pdf 2.360Mb PDF View/Open None
tawiah_2024_op.pdf 220.1Kb PDF View/Open None
tawiah_2024_vp.pdf 212.3Kb PDF View/Open None

This item appears in the following Collection(s)

Show simple item record

Find fulltext

Search DSpace


Browse

My Account