2017-ben a Google kutatói egy radikálisan új neurális hálózati architektúrát mutattak be, amely alapjaiban változtatta meg a mesterséges intelligencia fejlődésének irányát. Fedezd fel interaktívan, hogyan működik.
Fedezd fel az architektúrát„Nem értjük az intelligenciát. Nem tudjuk, hogyan működik az agy... és ezeket a neurális hálózatokat sem értjük igazán. Ez olyan, mintha egy Petri-csészébe néznénk bele."
A mély tanulástól a Transformer forradalmon át a mai generatív AI-ig.
Kattints az egyes komponensekre a részletes magyarázatért.
Az interaktív diagramon kattints bármelyik komponensre, hogy részletes magyarázatot kapj a Transformer architektúra adott részéről.
Az architektúra fő részei: Encoder (bal oldal) és Decoder (jobb oldal) — mindkettő több rétegből áll, amelyek egymásra épülnek.
Kattints egy szóra, és láthatod, mely más szavakra „figyel" a modell a mondat feldolgozásakor.
Az architektúra legfontosabb komponenseinek áttekintése.
Hogyan viszonyul a Transformer az RNN-ekhez és CNN-ekhez?
| Jellemző | RNN / LSTM | CNN | Transformer |
|---|---|---|---|
| Párhuzamos feldolgozás | ✗ Szekvenciális | ✓ Részleges | ✓✓ Teljes |
| Hosszú távú függőségek | ✗ Korlátozott | ✗ Helyi kontextus | ✓✓ Globális |
| Skálázhatóság | ✗ Nehézkes | ✓ Közepes | ✓✓ Kiváló |
| Értelmezhetőség | ✗ Alacsony | ✗ Alacsony | ✓ Attention maps |
| Betanítási idő | Közepes | Gyors | Nagy adathalmazon lassabb, de hatékonyabb |
| Memóriaigény | Alacsony | Közepes | O(n²) — nagy szekvenciáknál magas |