szó jelentését keresi. A DICTIOUS-ban nem csak a
szó összes szótári jelentését megtalálod, hanem megismerheted az etimológiáját, a jellemzőit és azt is, hogyan kell a
szót egyes és többes számban mondani. Minden, amit a
szóról tudni kell, itt található. A
szó meghatározása segít abban, hogy pontosabban és helyesebben fogalmazz, amikor beszélsz vagy írsz. A
és más szavak definíciójának ismerete gazdagítja a szókincsedet, és több és jobb nyelvi forráshoz juttat.
Főnév
explainable artificial intelligence (tsz. explainable artificial intelligences)
- (informatika)
Explainable Artificial Intelligence (XAI)
Bevezetés
A mesterséges intelligencia (AI) napjainkban rengeteg területen alkalmazásra kerül: diagnosztikai rendszerekben, pénzügyi modellezésben, autonóm járművekben, jogi döntéstámogató rendszerekben, ajánlórendszerekben, sőt kritikus infrastruktúrákban is. → Ezekben a rendszerekben a megmagyarázhatóság kiemelten fontos.
👉 A modern AI modellek, különösen a mély tanuló hálózatok (deep learning), egyre bonyolultabbak, fekete dobozként viselkednek: nehéz megérteni, hogy miért hoznak bizonyos döntéseket.
Ezért jelent meg az Explainable AI (XAI) mint kutatási terület és mérnöki gyakorlat.
Mit jelent az Explainable AI?
Explainable AI (XAI) olyan módszerek és technikák összessége, amelyek lehetővé teszik az AI rendszerek által hozott döntések értelmezését, magyarázatát és indokolását.
→ Cél: az AI működése átláthatóbb, ellenőrizhetőbb és megbízhatóbb legyen.
Miért fontos?
1️⃣ Bizalom
Az emberek csak akkor hajlandók elfogadni AI döntéseit, ha értik azokat.
Pl.:
- Orvos: “Miért mondja a rendszer, hogy a betegnek daganata van?”
- Banki hitelbíráló: “Miért utasította el a gép a hitelkérelmet?”
2️⃣ Jogszabályi megfelelés
Pl.:
- EU GDPR előírja, hogy automatizált döntések esetén a felhasználót tájékoztatni kell a döntés logikájáról.
3️⃣ Hibakeresés
Ha nem értjük, hogy egy AI miért döntött rosszul, nem tudjuk javítani a modellt.
4️⃣ Etikai felelősség
Ha egy AI diszkriminatív döntéseket hoz → fontos tudni, hogy milyen okokból.
“Fekete doboz” vs “Fehér doboz”
- Fekete doboz modell: Pl. mély neurális hálózat → sok millió súly, nem intuitív logika.
- Fehér doboz modell: Pl. döntési fa → könnyen követhető szabályok.
→ XAI célja: fekete dobozok megmagyarázása, vagy inkább fehér doboz modellek használata.
XAI két nagy ága
1️⃣ Intrinsically interpretable modellek
- Maga a modell eleve érthető.
Pl.:
- Döntési fa (Decision Tree)
- Lineáris regresszió
- Szabályalapú rendszerek
👉 Előny: magyarázható 👉 Hátrány: kevésbé pontos bonyolult problémákon
2️⃣ Post-hoc interpretáció
- Bonyolult, fekete doboz modellek után külön eszközökkel próbálunk magyarázatot adni.
Pl.:
- Neurális hálózatokat utólag magyarázunk.
→ XAI eszközök tipikusan ide tartoznak.
Fő XAI technikák
1️⃣ Feature Importance
→ Mely inputok mennyire járultak hozzá a döntéshez?
Pl.: Egy hitelbírálati modellben:
Feature
|
Importance
|
Jövedelem
|
0.45
|
Életkor
|
0.20
|
Múltbeli tartozás
|
0.30
|
Lakóhely
|
0.05
|
→ A banki ügyfél jövedelme volt a legfontosabb.
2️⃣ Partial Dependence Plot (PDP)
→ Hogyan változik a modell predikciója egy változó függvényében?
Pl.: Hitel jóváhagyási esély jövedelem függvényében → grafikon.
3️⃣ LIME (Local Interpretable Model-agnostic Explanations)
- Lokális magyarázat adott predikcióhoz.
- Működés:
- Perturbálja az input adatot
- Vizsgálja, hogy változik az output
- Lokális, egyszerű modellt illeszt rá (pl. lineáris)
→ Így kapunk lokális magyarázatot.
Előny:
✅ Modellfüggetlen → bármilyen ML modellt magyarázhatunk.
4️⃣ SHAP (SHapley Additive exPlanations)
- Játékelméleti alapú.
- Számolja, hogy az egyes input feature-ök mennyivel járultak hozzá az adott predikcióhoz.
Előny:
✅ Pontos ✅ Konzisztens ✅ Fair → minden feature “saját hozzájárulását” számolja.
Hátrány:
❌ Lassú komplex modellek esetén.
5️⃣ Saliency map / Heatmap (képek esetén)
- Képeknél (CNN) gyakori.
- Megmutatja, hogy a kép mely részei voltak fontosak az AI döntéséhez.
Pl.:
- Egy AI azt mondja, hogy a képen kutya van → a saliency map megmutatja, hogy a kutya orra és füle voltak a kulcspontok.
XAI alkalmazások
Orvosi diagnosztika
- AI mondja: “Ez a röntgen pozitív tüdőgyulladásra.”
- Orvosnak kell látni: mely területek miatt mondja ezt az AI → Saliency Map.
Pénzügyi szektor
- Miért utasította el az AI a hitelt?
- Ügyfél kérheti a magyarázatot → Feature Importance, SHAP.
HR rendszerek
- Miért rangsorolta az AI az egyik jelöltet magasabbra?
- Fontos ellenőrizni: nem diszkriminatív okokból.
Jogi rendszerek
- AI javasolja: “Nem szabad feltételesen szabadlábra helyezni.”
- Bíró szeretné tudni: miért?
XAI kihívások
1️⃣ Pontosság vs magyarázhatóság
- A legegyszerűbben magyarázható modellek (pl. döntési fa) → gyakran kevésbé pontosak.
- A legpontosabb modellek (deep learning) → fekete dobozok.
2️⃣ Lokális vs globális magyarázat
- LIME, SHAP → lokális (adott predikcióhoz magyaráz).
- Néha globális képet is szeretnénk (“általában hogyan működik a modell?”).
3️⃣ Működés torzítása
- Ha a magyarázó eszköz nem tökéletes, félrevezető magyarázatot is adhat.
4️⃣ Metrikák hiánya
- Nehéz mérni, hogy egy magyarázat jó-e.
- Mi számít “elég jó” magyarázatnak?
XAI jövője
Automatizált XAI
- Modellek automatikusan adnak magyarázatokat.
XAI-integrált modellek
- Olyan modellek tervezése, amelyek magukban hordozzák a magyarázhatóságot.
Felhasználó-központú XAI
- Magyarázatot a felhasználó igénye szerint testre szabni:
- laikusnak egyszerű magyarázat
- szakembernek részletes.
Jogszabályi nyomás
- EU, USA, UK → egyre több helyen lesz kötelező XAI.
Összefoglalás
Explainable AI (XAI) → az a terület, amely megpróbálja az AI döntéseit átláthatóvá és érthetővé tenni.
AI rendszerek egyre bonyolultabbak → XAI nélkül nem tudunk megbízni bennük.
XAI segít:
✅ Bizalmat építeni ✅ Jogszabályoknak megfelelni ✅ Hibákat feltárni ✅ Etikai kérdésekre választ adni
Fő eszközök:
- LIME
- SHAP
- Feature importance
- PDP
- Saliency map
Kihívás: pontosság ↔ magyarázhatóság egyensúlya.