Absztraktív összefoglalás arab nyelvre

Kutatásunkban arab nyelvre tanítunk különböző absztraktív összefoglaló modelleket. A jelen tanulmány a kutatásunk jelenlegi fázisát mutatja be. Arab nyelvre az absztraktív összefoglalás területén kevés kutatás történt, ezért korábbi kutatásunk során első feladatként saját adatot kellett gyűjteni. Ad...

Teljes leírás

Elmentve itt :
Bibliográfiai részletek
Szerzők: Mram Kahla
Yang Zijian Győző
Testületi szerző: Magyar számítógépes nyelvészeti konferencia (18.) (2022) (Szeged)
Dokumentumtípus: Könyv része
Megjelent: 2022
Sorozat:Magyar Számítógépes Nyelvészeti Konferencia 18
Kulcsszavak:Nyelvészet - számítógép alkalmazása
Tárgyszavak:
Online Access:http://acta.bibl.u-szeged.hu/75881
Leíró adatok
Tartalmi kivonat:Kutatásunkban arab nyelvre tanítunk különböző absztraktív összefoglaló modelleket. A jelen tanulmány a kutatásunk jelenlegi fázisát mutatja be. Arab nyelvre az absztraktív összefoglalás területén kevés kutatás történt, ezért korábbi kutatásunk során első feladatként saját adatot kellett gyűjteni. Adatgyűjtés után sikeresen finomhangoltunk különböző enkóder-dekóder architektúrájú transzformer modelleket. Kísérleteinkben kipróbáltuk a PreSumm és a többnyelvű mBART módszereket. A PreSumm módszerrel ezen a területen „state of the art” eredményt értünk el. Jelen tanulmány ezt a kutatási sorozatot folytatja. Kutatásunk során saját egynyelvű és többnyelvű BART modell tanításával kísérleteztünk, valamint az mT5 modellt próbáltuk arab összefoglaló generálásra finomhangolni. Kísérletünk során korlátozott mennyiségű adattal kísérleteztünk, célunk az volt, hogy megvizsgáljuk ezen módszerek alkalmazhatóságát. Kutatásunkkal ezért várakozásunknak megfelelően nem tudtuk felülmúlni a korábban elért legjobb eredményünket. Azonban így is versenyképes eredményeket tudtunk elérni, amelyek további kutatásoknak adnak teret, ez azonban nagyobb mennyiségű adat és infrastruktúra előfeltételt is megkövetel.
Terjedelem/Fizikai jellemzők:281-291
ISBN:978-963-306-848-9