Nadaljevalno učenje s superpozicijo v transformerjih

Avtorji

  • Marko Zeman FRI
  • Jana Faganeli Pucer
  • Igor Kononenko
  • Zoran Bosnić

DOI:

https://doi.org/10.31449/upinf.183

Ključne besede:

globoko učenje, nadaljevalno učenje, strojno učenje, superpozicija, transformer, klasifikacija besedil

Povzetek

V mnogih aplikacijah strojnega učenja se novi podatki nenehno zbirajo, npr. v zdravstvenem varstvu, za vremenske napovedi itd. Raziskovalci si pogosto želijo sistem, ki bi omogočal nadaljevalno učenje novih informacij. To je izjemnega pomeni tudi v primeru, ko vseh podatkov ni mogoče shranjevati v nedogled. Največji izziv pri nadaljevalnem strojnem učenju je težnja nevronskih modelov, da po določenem času pozabijo prej naučene informacije. Da bi zmanjšali pozabljanje modela, naša metoda nadaljevalnega učenja uporablja superpozicijo z binarnimi konteksti, ki zavzemajo zanemarljiv dodaten pomnilnik. Osredotočamo se na nevronske mreže v obliki transformerjev, pri čemer smo naš pristop primerjali z več vidnimi metodami nadaljevalnega učenja na nizu klasifikacijskih nalog obdelave naravnega jezika. V povprečju smo dosegli najboljše rezultate: 4,6% izboljšavo pri ploščini pod krivuljo ROC (angl. AUROC - area under the receiver operating characteristic) in 3,0% izboljšavo pri ploščini pod krivuljo PRC (angl. AUPRC - area under the precision-recall curve).

Biografije avtorja

Marko Zeman, FRI

Marko Zeman je magistriral iz računalništva in informatike na Univerzi v Ljubljani, Fakulteti za računalništvo in informatiko leta 2020. Trenutno je raziskovalec in doktorski študent na Fakulteti za računalništvo in informatiko v Laboratoriju za kognitivno modeliranje. Njegova raziskovalna zanimanja so predvsem globoko učenje, nevronske mreže in metode nadaljevalnega učenja.

Jana Faganeli Pucer

Jana Faganeli Pucer je docentka na Fakulteti za računalništvo in informatiko. Njeno raziskovalno delo je osredotočeno na strojno učenje, predvsem na aplikacijo metod strojnega učenje v okoljskih znanostih. Več let sodeluje z Agencijo Republike Slovenije za okolje na področju kakovosti zraka.

Igor Kononenko

Igor Kononenko je doktor računalniških znanosti in redni profesor na Fakulteti za računalništvo in informatiko Univerze v Ljubljani ter predstojnik Laboratorija za kognitivno modeliranje. Njegova raziskovalna področja so umetna inteligenca, strojno učenje, nevronske mreže in kognitivno modeliranje. Je (so)avtor 225 člankov na teh področjih ter 13 učbenikov (dve knjigi izšli v Angliji).

Zoran Bosnić

Zoran Bosnic´ je profesor na Fakulteti za računalništvo in informatiko Univerze v Ljubljani. Raziskovalno se ukvarja z umetno inteligenco, zlasti s strojnim učenjem. Osredotoča se pretežno na učenje iz podatkovnih to- kov in na interdisciplinarne aplikacije strojnega učenja. Na tem področju je tudi (so)avtor okoli 70 znanstvenih člankov.

Prenosi

Objavljeno

17.10.2022

Kako citirati

[1]
Zeman, M., Pucer, J.F., Kononenko, I. in Bosnić, Z. 2022. Nadaljevalno učenje s superpozicijo v transformerjih. Uporabna informatika. 30, 3 (okt. 2022). DOI:https://doi.org/10.31449/upinf.183.

Številka

Rubrike

Kratki znanstveni prispevki