incremental learning (tsz. incremental learnings)
Ez ellentétben áll a hagyományos deep learning modellekkel, amelyek általában egyszerre tanulnak meg mindent egy nagy adathalmazon („batch learning”), és új adatnál újra kell tanítani őket – sokszor az egész tréningfolyamatot elölről kezdve.
Képesség | Mit jelent? |
---|---|
Új ismeret elsajátítása | Az új adat alapján frissül a modell |
Régi tudás megőrzése | A régi tudás nem tűnik el az új tanulása közben |
Adat-effektivitás | Kevés adatból is képes tanulni (egyszeri áthaladás) |
Skálázhatóság | A modell hosszabb idő alatt is karbantartható |
Ez az egyik legnagyobb probléma az inkrementális tanulás során: a modell „elfelejti” a korábban tanultakat, amikor új adatokra finomhangoljuk.
Példa: egy képklasszifikáló háló megtanulja felismerni a kutyákat, majd finomhangoljuk macskákra – a modell „kutyát látva is macskát” mond.
Ezért speciális technikákra van szükség, hogy az új tanulás ne törölje a régit.
A korábbi adatokat (vagy azok reprezentációit) visszajátsszuk új tanulás során.
A modell paramétereinek változását büntetjük, ha azok fontosak a korábbi tudáshoz.
A háló új neuronokat ad magához, amikor új osztályt vagy képességet tanul.
Külön memóriát tart fenn a „régi” és az „új” tudáshoz, és később fúzióval kombinálja.
Terület | Használat |
---|---|
Robotika | Folyamatos környezet-felismerés és adaptáció |
Ajánlórendszerek | Felhasználói szokások időbeli követése |
Egészségügy | Betegadatok alapján dinamikusan változó diagnózis |
Chatbotok / asszisztensek | Új kifejezések, stílus, preferenciák tanulása |
Biztonság | Változó támadási minták észlelése |
Egy képfelismerő MI először csak kutyákat és macskákat tanul, majd később új adatként kap zsiráfokat és zebrákat.
Batch learning esetén:
Incremental learning esetén:
# Egyszerű példája replay-nek Pythonban
class IncrementalLearner:
def __init__(self):
self.model = SomeNNModel()
self.memory = # Replay memóriatár
def train(self, new_data):
replay_data = self.memory # utolsó 100 minta
combined_data = replay_data + new_data
self.model.train(combined_data)
self.memory.extend(new_data)
Tulajdonság | Batch Learning | Incremental Learning |
---|---|---|
Új adat feldolgozása | Teljes újratanítás | Lokális finomhangolás |
Adathalmaz szükségessége | Teljes adat kell | Csak új adat (esetleg replay) |
Memóriaigény | Magas | Alacsony–közepes |
Időhatékonyság | Lassú tanítás | Gyorsabb frissítés |
Stabilitás | Stabilabb teljesítmény | Potenciális felejtés |
Az inkrementális tanulás kulcsfontosságú lesz:
Fejlesztés alatt állnak olyan modellek, amelyek hibrid módon ötvözik a statikus és dinamikus tanulást – például a continual learning (folyamatos tanulás) területén.
Fogalom | Jelentés |
---|---|
Incremental learning | Olyan tanulási mód, ahol az MI fokozatosan tanul új adatokat, a régiek megtartásával |
Fő előnye | Nincs szükség újratanításra – hatékony, skálázható |
Fő kihívás | Katastrofális felejtés, memória- és teljesítményegyenleg |
Alkalmazás | Valós idejű rendszerek, személyre szabás, frissítés |
Kapcsolódó területek | Continual learning, lifelong learning, few-shot learning |