history of computing

Üdvözlöm, Ön a history of computing szó jelentését keresi. A DICTIOUS-ban nem csak a history of computing szó összes szótári jelentését megtalálod, hanem megismerheted az etimológiáját, a jellemzőit és azt is, hogyan kell a history of computing szót egyes és többes számban mondani. Minden, amit a history of computing szóról tudni kell, itt található. A history of computing szó meghatározása segít abban, hogy pontosabban és helyesebben fogalmazz, amikor beszélsz vagy írsz. Ahistory of computing és más szavak definíciójának ismerete gazdagítja a szókincsedet, és több és jobb nyelvi forráshoz juttat.
ENIAC

Főnév

history of computing (tsz. history of computings)

  1. (informatika) számítástechnika története

A számítástechnika története

1940-es évek – Az elektronikus számítógépek hajnala

Az ENIAC számítógép (1946) egyike volt az első teljesen elektronikus, digitális számítógépeknek, amelyet elsősorban ballisztikus számításokra használtak az amerikai hadseregben.

Találmányok és első használatok

A második világháború időszakában jelentek meg az első programozható számítógépek. 1941-ben a német mérnök, Konrad Zuse megépítette a Z3 gépet, amely a világ első működő programvezérelt számítógépe volt – bináris számrendszert alkalmazott, lebegőpontos számábrázolással és 64 szó kapacitású memóriával. Ugyanekkor az Egyesült Államokban John Atanasoff és Clifford Berry kifejlesztették az Atanasoff–Berry Computer (ABC) gépet, amely az első elektronikus számológép volt lineáris egyenletrendszerek megoldására. Az ABC különlegessége az volt, hogy kondenzátor-alapú, regeneratív memóriát használt (ez tekinthető az első RAM megvalósításnak).

A titkosítás terén az Egyesült Királyságban, a Bletchley Parkban, Max Newman és csapata 1943-ban üzembe helyezte a Heath Robinson nevű elektromechanikus számolóművet, amely a náci rejtjelek megfejtését segítette. Ezt követte 1943 végén a Tommy Flowers által épített Colossus számítógép, amely az első teljesen elektronikus, digitális számítógép volt – igaz, programozhatósága korlátozott és kifejezetten a Lorenz-kód feltörésére tervezték. A Colossus 1500 elektroncsövet tartalmazott és másodpercenként ~25 000 karakter feldolgozására volt képes, jelentősen felgyorsítva a kódfeltörést. Mivel ez a munka szigorúan titkos volt, a Colossus létezését évtizedekig homály fedte, így nem befolyásolta az Egyesült Államokban zajló fejlesztéseket.

1946-ban az USA-ban bemutatták az ENIAC gépet (Electronic Numerical Integrator and Computer), amely az első nagyszabású, általános célú, teljesen elektronikus számítógép volt. Az ENIAC 18 000 elektroncsővel működött, 30 tonnát nyomott és 160 kW energiát fogyasztott. Összetett ballisztikai számításokat és a hidrogénbomba-fejlesztéshez kapcsolódó numerikus feladatokat végzett, nagyjából 5000 művelet/s sebességgel. Programozása kezdetben kézi átkötésekkel és kapcsolóállításokkal történt – tehát nem volt még tárolt program elve szerint működő gép. 1948-ban azonban a Manchester Baby (Small-Scale Experimental Machine) az Egyesült Királyságban elsőként futtatott programot egy tárolt programú számítógépként, a memória mátrixában eltárolva mind az adatokat, mind az utasításokat. 1949-re pedig Maurice Wilkes és csapata Cambridge-ben üzembe helyezte az EDSAC gépet, amely az első teljesen működő Neumann-elvek szerint tervezett számítógép lett. E fejlesztések lefektették a modern számítógépek architektúrájának alapjait.

Hardverrendszerek és processzorok

A korai elektronikus számítógépek elektroncsövekre és relékre épültek. A Z3 és az ENIAC is több ezer elektroncső segítségével végezte a logikai műveleteket. Ezek a gépek hatalmas termeket töltöttek meg a hardver elemeivel és jelentős hőtermeléssel, energiafogyasztással jártak. A memória technológiája kezdetben mechanikus vagy elektronikus késleltető elem volt: például higany késleltetővonalak (higanycsövek) vagy kondenzátorok formájában tárolták a biteket, amelyeket folyamatosan frissíteni kellett (regeneratív memória az ABC-ben). John von Neumann 1945-ös híres jelentése, az First Draft of a Report on the EDVAC, már leírta a tárolt program koncepcióját és a Neumann-architektúra elvét, amely szerint az utasítások és adatok ugyanabban a memóriában tárolhatók. Ez óriási előrelépést jelentett a hardver architektúrában: lehetővé tette a programok elektronikus tárolását és módosítását, megszüntetve a gép fizikai újrakábelezésének igényét az egyes feladatok között.

1947 decemberében a Bell Labs kutatói – William Shockley, John Bardeen és Walter Brattain – feltalálták a tranzisztort, egy új szilárdtest-eszközt, amely az elektroncsöveknél jóval kisebb méretű és megbízhatóbb kapcsolóelemnek bizonyult. Bár ez a forradalmi találmány a ’40-es években még nem jelent meg a számítógépekben, megalapozta a későbbi generációs hardver fejlődését. Ugyanebben az évben, 1947-ben fejlesztette ki Kathleen Booth az első összeállító nyelvet (assembly language) a Birkbeck College-ban, Londonban – ezzel megjelent az igény, hogy a hardver szintű gépi kódnál emberközelibb formában is lehessen programozni.

Operációs rendszerek

A 1940-es évek számítógépein még nem léteztek mai értelemben vett operációs rendszerek. A programokat gyakran közvetlenül gépi kódban vitték be (kapcsolótáblák, lyukkártyák vagy papírszalagok segítségével), és a gépek egyszerre jellemzően csak egy feladatot futtattak. A programozók maguk állították össze a végrehajtandó utasítássorozatot és indították el a számítógépet. A futás során minden erőforrás (processzoridő, memória) egy programé volt, így nem merült fel a többfeladatos üzem vagy erőforrás-kezelés igénye. A korabeli gépeken a programbetöltést és -vezérlést egyszerű kézi vagy vezérlőáramkörök (monitor programok) látták el, de ezek még nem alkottak külön szoftveres rendszert. Például az EDSAC számítógéphez Wilkes kidolgozta az ún. initial orders-t (kezdő utasításokat) – ez egy kis program volt a gép memóriájában, amely megkönnyítette a lyukszalagról való betöltést és ezzel primitív vezérlő szoftverként működött. Összességében azonban az 1940-es években az operációs rendszer fogalma még nem létezett: a számítógépek közvetlen vezérlése és a futtatás menedzsmentje minden esetben a felhasználók és mérnökök feladata volt.

Programozási nyelvek és fejlesztői eszközök

A számítástechnika hajnalán a programozás alapvetően gépi kódban, azaz bináris vagy decimális műveleti kódok és memóriarekesz-címek sorozataként történt. A programozók – többnyire matematikusok és mérnökök – kézzel állították össze a gép utasításait. Az első áttörés ebben a assembly, azaz assembly nyelv megjelenése volt: 1947-ben Kathleen Booth megalkotta az első assembly nyelvet, amely mnemonikus kódokkal (ember számára értelmezhető rövidítésekkel) helyettesítette a gépi kód bináris utasításait. Ez hatalmas segítséget jelentett, mert a programkód olvashatóbbá és könnyebben karbantarthatóvá vált. Emellett az assembly programokat egy assembler nevű szoftver fordította át gépi kóddá – ez tekinthető az első fejlesztői eszközök egyikének.

Fontos megemlíteni Grace Murray Hopper nevét is, aki a ’40-es években a Harvard Mark I electromechanikus számítógépen dolgozott. 1947-ben Hopper dokumentálta az első ismert számítógépes “bugot”: a Mark II egyik reléjébe szorult molylepkét, amely hibát okozott. Az eseményt tréfásan bejegyezték a naplóba mint „az első igazi bug” – innen eredeztetik a debugging (hibakeresés) kifejezés használatát a szoftverfejlesztésben. Bár a “bug” szó technikai hibára már Thomas Edison idejében is használatos volt, a hopperi anekdota segített népszerűsíteni a kifejezést a számítástechnika területén.

Alkalmazási területek

Az 1940-es években az akkor még szűk körben elérhető számítógépek főként tudományos és katonai célokra szolgáltak. A Colossus gépek a német hadsereg rejtjelfejtésében játszottak kulcsszerepet, lerövidítve a titkosított üzenetek megfejtésének idejét és ezzel hozzájárulva a szövetségesek hírszerzési sikereihez. Az ENIAC-ot eredetileg az amerikai hadsereg ballisztikus lövedék-pályatáblázatainak kiszámítására tervezték: a háború alatt ezeket a számításokat emberi számítók végezték, de a számítógép jelentősen felgyorsította a folyamatot. A háború után az ENIAC-ot tudományos kutatásokra használták, például a hidrogénbomba fejlesztéséhez szükséges szimulációk futtatására. 1949-ben az Egyesült Királyságban a Lyons cég LEO I számítógépe futtatta az első üzleti alkalmazást (bérszámfejtés) – ezzel kezdetét vette a számítógépek üzleti (kereskedelmi) alkalmazása.

Fontos idézetek és koncepciók

A korszakban formálódtak meg a számítástechnika alapvető elméleti koncepciói. Alan Turing brit matematikus már 1936-ban leírta az univerzális Turing-gép elvét, ami elméleti modellként megalapozta a számítógép fogalmát. 1950-ben Turing publikálta gondolatait a gépi értelem lehetőségéről, és felvetette a híres kérdést: „Gondolkodhatnak-e a gépek?”. Ebben a cikkben fogalmazta meg azt a kísérletet is, amelyet később Turing-tesztként ismerünk – bár ez már 1950-es esemény, a gondolat a ’40-es évek végének intellektuális légkörében gyökerezett. A Neumann-elvek (köztük a tárolt program koncepciója) a korszak végére széles körben elfogadottá váltak a szakemberek körében.

Egy sokat idézett (bár vitatott hitelességű) jóslat 1943-ból szintén jól szemlélteti a kort: Thomas Watson, az IBM akkori elnöke állítólag azt mondta, „talán öt darab számítógépre lehet igény világszerte”. Függetlenül attól, valóban hangzott-e ez el, az idézet gyakran szerepel a korai számítógépek korlátozott felhasználhatóságával kapcsolatos vélekedések példájaként. Ugyancsak beszédes Howard H. Aiken 1950-ben megjelent nyilatkozata: „Nagyobb problémákat kell kitalálnunk, ha azt akarjuk, hogy ezeknek a gépeknek legyen mit csinálni” – utalva arra, hogy a korabeli számítógépek már a meglévő számítási feladatokat túl gyorsan megoldják.

Nyílt problémák és versenyek

Az 1940-es években a számítástechnika legnagyobb nyílt problémája maga a megbízható és univerzális számítógép megalkotása volt. A korai gépek gyakran meghibásodtak (főként az elektroncsövek gyakori kiégése miatt) és programozásuk rendkívül időigényes volt. Az is nyitott kérdés volt, hogy lehet-e a számítógépeket a puszta számításnál összetettebb feladatokra használni, például utasításokkal önműködően irányítani egy folyamatot. Ez a probléma vezetett a tárolt programú vezérlés koncepciójához, amelyet Neumann János megoldott elméletben, és a késő ’40-es évekre megvalósult gyakorlatban is.

A mesterséges intelligencia terén is fogalmazódtak meg kihívások: Turing említett gondolatkísérlete, a Turing-teszt felvetette egy olyan jövő versenyének lehetőségét, ahol egy gép és egy ember intelligens viselkedését kell megkülönböztetni. Bár ilyen verseny a ’40-es években még nem létezett, ez a felvetés évekkel később (1991-től a Loebner-díj keretében) valódi verseny formájában is megjelent. Összességében a 40-es évek végére a számítógépek terén a legfontosabb nyílt kérdés az volt, milyen mértékben lehet ezeket a gépeket általános célúvá tenni, és hol vannak a határai annak, amit géppel el lehet végezni – a következő évtizedek ezeket a kérdéseket kezdték el megválaszolni.

1950-es évek – Az első generációs számítógépektől a tranzisztorokig

Találmányok és első használatok

Az 1950-es évek elején a számítógépek kiléptek a laboratóriumokból és megkezdődött az első kereskedelmi gépek kora. 1951 márciusában üzembe helyezték az első kereskedelmileg sikeres számítógépet, az UNIVAC I-et, amelyet J. Presper Eckert és John Mauchly tervezett. Az UNIVAC volt az első általános célú elektronikus számítógép, amelyet üzleti és adminisztratív adatok (szövegek, számok) feldolgozására is szántak, nem csak tudományos számításokra. Ugyanebben az évben, 1951-ben a brit Lyons cég LEO I számítógépe futtatta az első üzleti szoftvert (egy fizetési jegyzék feldolgozását), bizonyítva, hogy a számítógépek a kereskedelmi szektorban is hasznosíthatók.

A kormányzati és katonai szférában is egyre több alkalmazás jelent meg: 1951-ben Jay Forrester és csapata a MIT-en befejezte a Whirlwind számítógépet, amely az első valós idejű számítógép volt és interaktív módon, katódsugaras kijelzőn keresztül lehetett vezérelni. A Whirlwind tapasztalataira építve az amerikai légierő megalkotta a SAGE (Semi-Automatic Ground Environment) légvédelmi rendszert, amely a ’50-es évek végére a számítógépes hálózatba kötött radarfigyelés és -irányítás úttörőjévé vált. 1950-ben Alan Turing publikációja (amely később a Turing-teszt nevet kapta) felvetette a gépi intelligencia lehetőségét és megalapozta a mesterségesintelligencia-kutatás elméleti kereteit. 1956 nyarán Dartmouth College-ban egy konferencián neves kutatók (köztük John McCarthy, Marvin Minsky és mások) találkoztak, ahol megszületett a „mesterséges intelligencia” kifejezés, és ezzel elindult az AI, mint kutatási terület – ennek eredményeképp a ’50-es évek végén például Newell, Simon és Shaw kifejlesztették a Logic Theorist és a General Problem Solver programokat, melyek az emberi gondolkodás szimulálására tettek kísérletet.

Az évtized során a számítógépek egyre nagyobb teljesítményűek lettek, ám ekkor még mindig elektroncsöveket használtak (ezért hívjuk ezeket első generációs számítógépeknek). 1959-re a világ számos pontján működtek elektroncsöves számítógépek; ebben az évben jelent meg például az első japán elektronikus számítógép, a FUJIC, illetve a Szovjetunióban is fejlesztettek saját gépeket (MESM, BESZM stb.). 1959 és 1964 között gyártott gépeket szokás az első generációba sorolni, ekkorra kb. 2000 számítógép működött világszerte.

Hardverrendszerek és processzorok

A ’50-es évek közepéig a számítógépek elektroncsöves technológián alapultak. Ezek a gépek hatalmasak voltak és rendkívül sok hőt termeltek, ami gyakori meghibásodásokhoz vezetett. 1954-ben azonban egy forradalmi változás kezdődött: az elektroncsöveket fokozatosan felváltották a tranzisztorok. Az első tranzisztoralapú számítógépek közé tartozott például a TX-0 (1956, MIT), amely kísérleti gépként demonstrálta, hogy egy számítógép felépíthető teljes egészében tranzisztorokkal. 1959-re a számítógépek második generációja, a tranzisztoros gépek megjelentek: kisebbek, gyorsabbak és megbízhatóbbak lettek. Az IBM 1959-ben jelentette be az IBM 7090 gépet, ami tranzisztoros változata volt a korábbi 709-es csöves számítógépnek, és sokkal nagyobb teljesítményt nyújtott.

Egy másik fontos hardver-innováció a memória terén történt: az elektroncsöves és késleltetővonalas memóriákat felváltották a mágneses magtárak. 1953-ra a mágneses ferritgyűrűkből álló magtár memória standarddá vált a számítógépekben (például a Whirlwind-ben is ezt alkalmazták). A magtárak megbízható, véletlen elérésű memóriát biztosítottak, amely megőrizte tartalmát áramkimaradás esetén is. Ez jelentősen megnövelte a gépek teljesítményét és használhatóságát.

1958-ban új fejezet nyílt a hardver történetében: Jack Kilby (Texas Instruments) és Robert Noyce (Fairchild Semiconductor) egymástól függetlenül feltalálták az integrált áramkört (IC), amely több tranzisztort és áramköri elemet egyetlen félvezető lapkára integrált. Bár az integrált áramkörök a ’50-es évek végén még kezdetlegesek voltak és a számítógépekben csak a ’60-as években terjedtek el, ez a találmány megalapozta a későbbi mikroprocesszorok és modern számítógépek lehetőségét. Az integrált áramkörök megjelenésével beszélhetünk a harmadik generációs számítógépek kezdetéről, bár ennek kibontakozása inkább a következő évtizedre esik.

Operációs rendszerek

Az 1950-es évek elején a számítógépek még mindig egy felhasználós, egyprogramos üzemmódban működtek. A programokat lyukkártyákon vagy szalagon adták be, és a gépek addig futtatták őket, amíg véget nem értek. Az évtized közepén azonban megjelent az igény a hatékonyság növelésére: a számítógépidő drága volt, ezért kifejlesztették az első soros feldolgozó (batch processing) rendszereket. 1956-ban az IBM egyik gépén futott az első egyszerű batch monitor program: ez volt a GM-NAA I/O, amelyet az General Motors megbízásából írtak az IBM 701 számítógépre. A GM-NAA I/O alapvetően egy kezdetleges operációs rendszer volt, amely sorban egymás után betöltötte és lefuttatta a lyukszalagon sorakozó feladatokat, emberi beavatkozás nélkül.

A ’50-es évek végére az operációs rendszerek előfutáraiként olyan szoftverek jelentek meg, amelyek automatizálták a feladatok ütemezését és az eszközkezelést. 1959-ben az MIT kifejlesztette a Compatible Time-Sharing System (CTSS) elődjét megalapozó koncepciókat, bár maga a CTSS csak 1961-ben indult el. Összességében a ’50-es évek végén az operációs rendszerek még gyerekcipőben jártak: a legtöbb gép csak feladatkezelő monitorprogramokkal rendelkezett, de a következő évtizedben ugrásszerű fejlődés indult, ahogy a gépek teljesítménye és felhasználói száma nőtt.

Programozási nyelvek és fejlesztői eszközök

A programozás forradalmi változásokon ment keresztül az 1950-es években. Míg a korai években az assembly nyelv jelentett előrelépést, hamar felismerték, hogy magasabb szintű, az emberi gondolkodáshoz közelebb álló programozási nyelvekre van szükség. 1957-ben az IBM mérnöke, John Backus kifejlesztette a FORTRAN nyelvet (Formula Translator), amely kifejezetten tudományos és mérnöki számításokhoz készült. A FORTRAN volt az első széles körben használt magasszintű programozási nyelv, és fordítóprogramja hatékony kódot állított elő, így a tudósok és mérnökök körében gyorsan népszerű lett.

Ezt követte 1958-ban a LISP nyelv (John McCarthy és társai) – a mesterséges intelligencia kutatás igényeire szabva, a listák és rekurzív adattípusok kezelésével. 1959-ben pedig Grace Hopper közreműködésével létrejött a COBOL (Common Business-Oriented Language), amelyet üzleti adatok feldolgozására optimalizáltak. A COBOL nagy előnye az volt, hogy hasonlított az angol nyelvhez, így a kormányzati és üzleti alkalmazások programozását szélesebb kör számára tette hozzáférhetővé.

A fejlesztői eszközök is fejlődtek: megjelentek az első fordítóprogramok (compiler-ek), melyek automatikusan lefordították a magasszintű nyelveken írt programokat gépi kódra. A FORTRAN fordítója (1957) mérföldkő volt, bizonyítva, hogy a gépi kódú programok hatékonysága elérhető automatikus fordítással is. 1952-ben Grace Hopper már elkészítette az A-0 nevű fordítóprogramot, amely a gépi kódú szubrutinokat linkelte össze magasabb szintű utasítások alapján – egyesek ezt tekintik az első igazi compilernek. A ’50-es évek végére a programozók rendelkezésére álltak assembler-ek, compiler-ek, és kezdetleges debuggerek, így a szoftverfejlesztés egyre inkább különvált a hardver építésétől.

Alkalmazási területek

Ebben az évtizedben a számítógépek alkalmazása rohamosan bővült. Továbbra is fontosak maradtak a tudományos számítások: a FORTRAN megjelenése például forradalmasította a numerikus szimulációkat a mérnöki és fizikai kutatásokban. Szuperszonikus repülőgépek tervezésénél, atomfizikai számításoknál már számítógépet használtak a bonyolult differenciálegyenletek megoldására.

Az üzleti életben a számítógépek lassan kezdtek meghonosodni. A COBOL nyelv és az olyan számítógépek, mint az UNIVAC, megmutatták, hogy a könyvelés, raktárkezelés, banki nyilvántartások automatizálhatók. 1954-ben egy GE 225 számítógépen futott az első banki információs rendszer (a Bank of America számára készült ERMA rendszer, bár teljes üzembe csak 1961-ben állt), ami feldolgozta a csekkeket és frissítette a számlaegyenlegeket.

A kormányzati szektorban és a nagyvállalatoknál a számítógépek elsősorban adatfeldolgozásra és nyilvántartásra találtak alkalmazást. Például az USA Népszámlálási Hivatala is UNIVAC gépeket használt az 1950-es népszámlálási adatok feldolgozására. A katonai alkalmazások között a SAGE légvédelmi rendszer mellett megjelent a ballisztikus rakéták navigációját segítő számítógépes rendszer is (a NAVSAT elődje), valamint a hadseregen belül logisztikai és kommunikációs feladatokra is kezdték bevetni az elektronikus számítógépeket.

Az 1950-es évek végén egy különleges alkalmazási terület is felbukkant: a számítógépes zene. 1957-ben Max Mathews a Bell Labs-nál kifejlesztette a Music I szoftvert, mely lyukszalagról olvasott kottát és hangot generált – ez volt a számítógéppel komponált zene kezdete. 1951-ben Manchesterben a Ferranti Mark 1 gép pedig egyszerű dallamokat játszott le – ezek a legrégebbi ismert számítógép által generált zenei felvételek.

Fontos idézetek és koncepciók

A ’50-es években vált világossá, hogy a számítógépek rendkívül gyors fejlődése új kihívásokat és koncepciókat szül. 1952-ben John von Neumann azt nyilatkozta, hogy „számunkra, akik láttuk a számítógépek születését, nehéz elképzelni, hova vezet mindez”. Ez a bizonytalanság a szakemberek között is jelen volt: sokan vitatták, hogy a számítógépek alkalmasak lehetnek-e műfordításra, játékokban való gondolkodásra vagy akár gépi tanulásra.

1956-ban a Dartmouth konferencián Marvin Minsky optimistán kijelentette: „a mesterséges intelligencia problémáinak lényegét egy nyár alatt meg lehet oldani”. Ez a túlzott optimizmus később, a ’60-as évek végére „AI-tél” néven emlegetett kiábránduláshoz vezetett, de a ’50-es évek közepén még nagy lendület és hit övezte az AI kutatást.

A programozás terén Edsger Dijkstra 1957-ben (még Hollandiában) megalkotta az első fordítási algoritmust az ALGOL nyelvhez, és ezzel megalapozta a struktúrált programozás későbbi mozgalmát. Grace Hopper egyik híres idézete ebből az időből: „Nehéz meggyőzni az embereket, hogy a számítógép nem az ördög műve, csak azért, mert számolni tud” – utalva arra az attitűdre, amivel sok laikus vagy akár üzletember tekintett a számítógépekre: misztikus, bonyolult eszközként.

Nyílt problémák és versenyek

Az 1950-es években a számítógépes világ számos nyílt problémával nézett szembe. Az egyik fő kihívás a megbízhatóság és skálázhatóság volt: hogyan lehet a gépeket kevésbé hibafogékonnyá tenni és egyszerre több feladatot futtatni. Ez a probléma ösztönözte az operációs rendszerek és a tranzisztoros hardver fejlesztését.

A szoftverfejlesztés is problémákkal küzdött. Ahogy a programok bonyolódtak, egyre világosabbá vált, hogy a programozás módszertanát fejleszteni kell. A későbbi „szoftverválság” első jelei már mutatkoztak: nagy projekteknél csúszások és költségtúllépések voltak. Ennek előszelét a NATO 1968-as konferenciáján nevezték el szoftverválságnak, de az alapjai a ’50-es évek végén gyökereztek, amikor a COBOL és FORTRAN projektek kapcsán felmerült a dokumentáció és karbantarthatóság fontossága.

A mesterséges intelligenciában nyílt kérdés volt, hogy vajon egy gép képes lehet-e például sakkozni emberi szinten. 1950-ben Claude Shannon írt egy tanulmányt a számítógépes sakkról, ami aztán versenyhelyzeteket inspirált: 1956-ban már rendeztek primitív számítógépes sakkversenyt (IBM vs. NSS programok között). Az igazi nagy verseny azonban ebben a korban még inkább elvi jellegű volt: ember vs. gép. 1956-ban az NSSCs (Nemzetközi Sakk Számítógép Konferencián) bemutatták az első sakkprogramokat, de gép még nem győzött le mesterszintű sakkozót. Ez a kihívás csak évtizedekkel később, 1997-ben oldódott meg, amikor az IBM Deep Blue legyőzte Garri Kaszparovot. Ugyancsak nyitott probléma volt a gépi fordítás: 1954-ben egy orosz–angol gépi fordítási kísérlet (Georgetown-IBM kísérlet) biztató eredményt hozott, de hamar világossá vált, hogy a nyelv feldolgozása sokkal nehezebb feladat, semmint pár év alatt megoldható legyen – ez a probléma is velünk maradt még évtizedekig.

Összességében a ’50-es évek végére a számítástechnika közössége számos ígéretet és ugyanakkor problémát látott maga előtt: a számítógépek egyre gyorsabbak és hasznosabbak lettek, de kérdés volt, hogyan lehet őket hatékonyan programozni, több feladatot párhuzamosan kezelni, és vajon meddig fokozható a teljesítményük – ezek a kérdések a következő évtizedek kutatásait meghatározták.

1960-as évek – Integrált áramkörök és a szoftverek születése

Találmányok és első használatok

A 1960-as évekre a számítógépek második generációja – a tranzisztoros gépek – már kiforrott, és az évtized során átlépünk a harmadik generációba, amit az integrált áramkörök (IC) alkalmazása jellemez. 1960-ban a Bell Labs kutatói megépítették az első működő MOSFET tranzisztort (fém-oxid-félvezető tranzisztort), ami később a modern mikroprocesszorok alapja lett. 1961-ben a Texas Instruments bemutatta az első integrált áramkörökre épülő kísérleti számítógépet, a Molecular Electronic Computer-t, bizonyítva hogy az IC-technológia alkalmas számítógép építésére.

Az évtized elején – 1964-ben – az IBM bemutatta a System/360 családot, az első olyan számítógéprendszert, amely különböző méretű és teljesítményű modelleket kínált, de közös utasításkészlettel. Ez forradalmi volt, mert a korábbi években minden új számítógépmodellhez a szoftvereket újra kellett írni. A System/360 egységes platformot teremtett a kis és nagy gépek között, és ezzel az IBM dominánssá vált a mainframe piacon. A System/360 emellett 8 bites bájt egységet használt (ez a bájt definíciója itt rögzült ipari szabványként), és egy sor új technológiát vezetett be (például mikroprogramozást, tranzisztoros áramköröket, stb.).

A ’60-as években a számítógépek megjelentek a kutatás számos területén és új alkalmazások születtek. 1965-ben üzembe állt a CDC 6600, a világ első szuperszámítógépe, amelyet Seymour Cray tervezett a Control Data Corporationnél. A CDC 6600 1964-ben debütált és ~3 millió műveletet végzett másodpercenként, megelőzve minden korábbi gépet. Ez a gép vezette be a párhuzamos feldolgozás bizonyos elemeit (több funkcionális egységen keresztüli utasításkivitelezés), és évekig a leggyorsabb számítógép volt.

Az évtized második felében, 1969-ben egy kis lépés az emberiségnek, nagy ugrás a számítástechnikának: az ARPANET projekt keretében létrejött az első számítógép-hálózat csírája. 1969. november 21-én sikerült összekapcsolni két távoli gépet (UCLA és Stanford), létrehozva az első két csomópontos hálózatot – ez lett az ARPANET magja. Bár ekkor még csak négy csomópontból állt a hálózat (1969 végére), az ARPANET a későbbi internet előfutára volt, és a ’60-as évek végén megszülettek a hálózati kommunikáció alapvető protokolljai és eszközei (pl. RFC 1 – az első Request for Comments dokumentum 1969 áprilisában jelent meg, formalizálva a hálózati protokollok fejlesztését).

Hardverrendszerek és processzorok

A hardver terén a ’60-as évek forradalmi újdonsága az integrált áramkörök egyre szélesebb körű alkalmazása volt. 1962-re a Manchesteri Egyetemen elkészült az Atlas számítógép, mely ugyan még tranzisztoros volt, de számos újításával – mint a párhuzamos feldolgozás, szimultán I/O műveletek és a virtuális memória – megelőlegezte a következő generáció képességeit. Az Atlas a világ egyik legerősebb gépe volt megjelenésekor, és bevezette a lapozást (paging) a memóriakezelésben, lehetővé téve a programok számára, hogy a fizikai memóriánál nagyobb memóriateret használjanak.

1965-re a tranzisztoros technológia csúcsra ért a miniszámítógépek megjelenésével: a Digital Equipment Corporation (DEC) kiadta a PDP-8 gépet, ami az első kereskedelmileg sikeres miniszámítógépnek tekinthető. A PDP-8 relatíve olcsó ($18 000 körüli ár), kis helyigényű gép volt, melyet laborokban, egyetemeken és kisebb cégeknél is alkalmazni tudtak – ezzel elkezdődött a számítástechnika decentralizációja, nem csak óriási vállalatok engedhették meg maguknak a gépeket.

1969-ben a Honeywell bemutatta a Honeywell 316 miniszámítógépet, amely integrált áramköröket használt, és a Bell Labs ezt a gépet alkalmazta az első programozható logikai vezérlő (PLC) létrehozására ipari folyamatok vezérléséhez (ez a Project MAC része volt). Eközben 1969-ben az Intel megkezdte első mikroprocesszorának fejlesztését, a 4-bites 4004 chip tervezését – bár maga a 4004 csak 1971-ben készült el, a ’60-as évek végén indult projekt volt a mikroprocesszor születésének előjátéka.

A ’60-as évek közepétől a második generációs gépeket (tranzisztoros) fokozatosan felváltották a harmadik generációs gépek. Ez utóbbiakban már IC-ket alkalmaztak, ami nagyságrendi növekedést hozott az integráltságban és megbízhatóságban. Az IBM System/360 család, valamint a DEC újabb gépei (PDP-11, 1970 körül) mind integrált áramkörös logikával készültek. Az integrált áramkörök kezdetben kis integráltságú (SSI) és közepes integráltságú (MSI) chipeket jelentettek, melyeken néhány tíz vagy száz tranzisztor volt. A ’60-as évek végére megjelent a nagymértékben integrált áramkör (LSI), több ezer tranzisztorral – ennek köszönhetően a komplett processzorok a következő évtizedben már egy lapkára kerülhettek.

Operációs rendszerek

A 1960-as években az operációs rendszerek terén hatalmas fejlődés zajlott: kialakultak a mai OS-ek alapvető funkciói – mint a többfeladatos működés, párhuzamos felhasználói elérés és a különböző hardver-erőforrások dinamikus kezelése. 1961-ben a MIT kifejlesztette a CTSS (Compatible Time-Sharing System) rendszert kísérleti jelleggel, amely 1961-ben demonstrálta, hogy egy számítógépet (IBM 7090) több felhasználó terminálokon keresztül egyszerre, időosztásos módon használhat. A time-sharing, azaz időosztásos üzemmód forradalmasította az interaktív számítógép-használatot, hiszen már nem kellett órákat vagy napokat várni egy batch feladat eredményére – a felhasználók közvetlenül kommunikálhattak a géppel.

1964-ben a Dartmouth College-ban kifejlesztették a Dartmouth Time-Sharing System-et, és ennek részeként a BASIC programozási nyelvet, amely egyszerű szintaxisával a diákok interaktív tanítására szolgált. A BASIC interpreter futtatása egy időosztásos rendszeren lehetővé tette, hogy sok diák egyszerre programozzon egy központi gépen, ami a számítógépek oktatási alkalmazását erősen fellendítette.

Az IBM System/360 bevezetésével párhuzamosan az IBM megalkotta az OS/360 operációs rendszert (1966-ra vált stabillá), ami már rendkívül összetett, többfeladatos OS volt: batch munkákat, spoolingot (perifériák közötti pufferelést) és különböző nyelvekhez fordítókat tartalmazott. Az OS/360 a megbízhatóság és az akkori hardver maximális kihasználása érdekében jött létre, és hozzájárult az „operációs rendszerek” fogalmának elterjedéséhez.

A korszak talán legfejlettebb kísérleti OS-e a Multics (Multiplexed Information and Computing Service) volt, amelyet 1964-től kezdődően fejlesztett a MIT, a Bell Labs és a GE közösen. A Multics számos újdonságot vezetett be: dinamikus újrafordítás, fájlrendszer hierarchia, biztonsági védelem és egy akkor forradalmi koncepció: újrabelépő kernel moduláris felépítéssel. Bár a Multics végül csak korlátozott körben terjedt el, közvetlen hatása óriási volt – például inspirálta az 1969-ben megszületett UNIX operációs rendszert.

1969-ben a Bell Labs fiatal programozói, Ken Thompson és Dennis Ritchie létrehozták a UNIX első verzióját, kezdetben egy DEC PDP-7 gépen. A UNIX egyszerűbb volt a Multicsnál, de átvette annak sok jó ötletét, és a ’70-es évekre a UNIX vált a többfelhasználós operációs rendszerek etalonjává. Megjelent a rendszerhívások koncepciója, a fájlkezelés egységes elve (mindent fájlként kezelünk), és a csővezetékek (pipeline) ötlete is. A ’60-as évek végére tehát az operációs rendszerek már elérték azt a komplexitást, hogy a szoftver külön iparággá válhatott.

Programozási nyelvek és fejlesztői eszközök

A 60-as évek hihetetlen pezsgést hoztak a programozási nyelvek terén. 1960-ban megjelent az ALGOL 60, amely a struktúrált, blokkos programozás első valóban nemzetközi nyelve lett, és bevezette a máig használt szintaktikus elemek egy részét (begin-end blokkok, rekurzió stb.). Bár az ALGOL-t főleg az akadémiai és matematikai körök használták, hatása óriási volt a későbbi nyelvekre (Pascal, C, stb.). 1964-ben John Kemeny és Thomas Kurtz elkészítette a BASIC nyelvet (Beginner’s All-purpose Symbolic Instruction Code), kifejezetten az egyszerűség kedvéért, hogy diákok könnyen megtanulhassák. A BASIC gyorsan elterjedt az egyetemeken a time-sharing rendszereken, mivel interaktív tolmácsként működött, azonnali visszajelzést adva a tanulóknak.

1967-ben Norvégiában Ole-Johan Dahl és Kristen Nygaard kifejlesztették a Simula 67 nyelvet, amit sokan az első objektumorientált programozási nyelvnek tekintenek. A Simula-ban jelentek meg először az „objektum” és „osztály” fogalmak (igaz, ők még inkább szimulációs kontextusban használták, pl. folyamatok modellezésére), de ez a koncepció később alapja lett számos nyelvnek (Smalltalk, C++ stb.) és a szoftverfejlesztés új paradigmájának.

A hálózati protokollok fejlődésével új szkriptnyelvek is születtek: például 1969-ben a BCPL nyelvből (egy egyszerű rendszerszintű nyelvből) Ken Thompson megírta a B nyelvet a UNIX fejlesztéséhez, majd 1970-ben Dennis Ritchie továbbfejlesztette ezt C nyelvvé a Bell Labs-nál. A C nyelv azonban hivatalosan 1972-ben jelent meg, így a ’60-as évek végén még csak formálódott – de meg kell említeni, mert a tervezési folyamat már a UNIX alkotása közben elindult.

A fordítóprogramok és egyéb fejlesztői eszközök terén is előrelépés történt. 1962-ben megjelent az első fordítófordító (compiler-compiler), az IBM FLOW-MATIC és hasonló eszközök utódaként az YACC (Yet Another Compiler-Compiler) 1970-ben – ezek célja az volt, hogy megkönnyítsék új nyelvek fordítóinak létrehozását. A szimbólikus debug eszközök is megjelentek: pl. a IBM fejlesztette ki az első hibakereső programokat nagygépein, és a felhasználók elkezdték használni a „print debugging” helyett a memóriatartalom vizsgálatára szolgáló szoftvereket.

1968 egy fontos év volt a szoftverfejlesztés történetében: a NATO konferencián elhangzott Edsger Dijkstra híres cikke: „Go To Statement Considered Harmful”, amely a goto utasítás túlzott használata ellen érvelt és a struktúrált programozás mellett tette le a voksát. Ugyanebben az évben beszéltek először nyíltan a „szoftverválságról”: arról, hogy a szoftverek komplexitása meghaladja a fejlesztési módszerek képességeit, és új szemléletre van szükség – így született meg a szoftverfejlesztés mint mérnöki diszciplína (software engineering) gondolata.

Alkalmazási területek

A ’60-as években a számítógépek behatoltak az élet szinte minden területére, legalábbis a fejlett országokban. A tudományos kutatás terén a számítógépek nélkülözhetetlenné váltak: a NASA az 1960-as években számítógépeket alkalmazott az űrkutatásban, például a Mercury és Gemini programokban a röppályák számítására, majd az Apollo program során a fedélzeti számítógép (AGC – Apollo Guidance Computer) irányította a holdkompot. Ez utóbbi egy 2 MHz alatti, 2kB RAM-mal rendelkező integrált áramkörös minigép volt, amely kihívások közt is bizonyított, például az Apollo–11 holdraszállásakor, amikor a program újraindult túlterhelés miatt, de a szoftver hibatűrő kialakítása lehetővé tette a küldetés folytatását.

A katonai alkalmazások közül a stratégiai fegyverrendszerek és korai figyelmeztető rendszerek emelhetők ki: a SAGE rendszer a ’60-as években vált teljesen működőképessé, egy észak-amerikai radarrendszer-hálózatot kötve össze hatalmas AN/FSQ-7 számítógépekkel. Ezek a gépek valós idejű adatokat dolgoztak fel és vadászrepülőket irányítottak – lényegében az első online hálózati rendszernek tekinthetők. A rakétavédelemben és az űrversenyben a számítógépek szintén kulcsszerepet játszottak.

Az üzleti életben és kormányzatban a ’60-as évek hozta el az adatbázis-kezelés kezdetét. 1965-ben az IBM létrehozta az első nagyszabású adatbázis-rendszereket például a szociális biztonsági nyilvántartáshoz. 1964-ben indult útjára a SABRE nevű légifoglalási rendszer az American Airlines és az IBM közös projektjeként – ez a rendszer több várost összekapcsolva valós időben kezelte a repülőjegy-foglalásokat, és úttörő lett az online tranzakciófeldolgozásban.

A telekommunikációban is megjelentek a számítógépek: az 1960-as években a telefonhálózatok kapcsolóközpontjait kezdték el digitalizálni. 1965-ben a Bell Labs kifejlesztette az első elektronikus telefonközpontot (ESS – Electronic Switching System), amelyben számítógép irányította a híváskapcsolást, javítva a hálózat megbízhatóságát és kapacitását.

A hálózatok terén, ahogy említettük, 1969-ben az ARPANET létrejötte új alkalmazási lehetőségeket nyitott: eleinte a tudományos és katonai intézmények között osztottak meg erőforrásokat (pl. egy-egy különleges nyomtatót vagy számítógépet távolról használtak). 1965-ben Donald Davies és Paul Baran egymástól függetlenül leírták a csomagkapcsolt hálózatok elvét, ami az ARPANET és később az internet alapja lett. 1969-re nem csak az USA-ban, de az Egyesült Királyságban (NPL network) és máshol is kísérleteztek hálózatokkal – sőt, 1973-ban létrejött az első nemzetközi hálózati kapcsolat London és az ARPANET között.

A szórakoztatóiparban is megjelentek az első fecskék: 1962-ben a MIT-n megírták a Spacewar! nevű számítógépes játékot egy DEC PDP-1 gépen, ami két játékosnak biztosított interaktív élményt – ez a játék a hacker-kultúra egyik legendája lett. Bár kereskedelmi forgalomba nem került, a Spacewar inspirálta később, 1971-ben az első coin-op videojátékot (Computer Space). A ’60-as évek tehát a számítógépes játékok és a digitális szórakoztatás csíráit is hordozta magában.

Fontos idézetek és koncepciók

A ’60-as évek elején Gordon Moore, az Intel társalapítója, 1965-ben megfogalmazta a később Moore-törvényként ismert megfigyelését: miszerint az integrált áramkörökön a tranzisztorok száma (és ezzel a számítógépek teljesítménye) nagyjából kétévente megduplázódik. Ez a „törvény” döbbenetes pontossággal jellemezte a következő évtizedek fejlődését, és a félvezetőipar önbeteljesítő céljává vált.

1968-ban a már említett Dijkstra-cikk, a „Go To statement considered harmful”, alapvető szemléletváltást indított a programozásban: a struktúrált programozás térnyerése kezdődött, ami a programozási nyelvek és módszerek letisztulásához vezetett. Dijkstra egy másik híres mondata 1968-ból: „A szoftverfejlesztés katasztrofális állapotban van” – ezzel a szoftverválságra utalt, ami akkor már érzékelhetően fenyegette a nagy projekteket.

1969-ben Ken Thompson és Dennis Ritchie a „Unix filozófia” szellemében alkották meg a UNIX rendszert, melynek része egy máig idézett elv: „Készíts egyszerű dolgokat, amelyek jól működnek együtt”. A UNIX kis, jól körülhatárolt eszközökből állt, amelyeket csővezetékekkel lehetett összefűzni – ez a filozófia a szoftvertervezés tartós koncepciójává vált.

A NASA holdraszállása kapcsán Gene Kranz, az irányítóközpont vezetője kijelentette: „Failure is not an option” („a kudarc nem opció”), ami ugyan emberi vonatkozású mottó, de jól tükrözi azt a megbízhatósági szemléletet, amit a ’60-as években a számítógépektől is elvártak, különösen kritikus alkalmazásokban. Ugyanebben az időben hallhattuk John F. Kennedy 1961-es beszédét is: „Eldöntöttük, hogy még ebben az évtizedben embert juttatunk a Holdra és vissza is hozzuk biztonságban” – ez a kihívás a számítástechnika fejlődését is felgyorsította, hiszen az űrprogram rengeteg újítást igényelt a navigáció, vezérlés és számítógép-irányítás terén.

Nyílt problémák és versenyek

A ’60-as években számos, ma ismerős probléma kezdett körvonalazódni. Az egyik ilyen a szoftver méretének és komplexitásának kezelése – az évtized végén megfogalmazott szoftverválság lényege, hogy a hagyományos eszközökkel nem lehet könnyen áttekinteni és karbantartani az egyre bonyolultabb programokat. Erre válaszul a struktúrált programozás és később az objektumorientált programozás kínált megoldást, de a kérdés nyitott maradt, hogyan lehet igazán nagy szoftvereket „mérnöki alapossággal” készíteni.

A hardver terén is volt nyitott kérdés: a Miniaturizálás határai meddig tolhatók? Moore törvénye ugyan iránymutatást adott, de a mérnökök már a ’60-as években felismerték, hogy előbb-utóbb fizikai korlátokba ütközhetnek. Akkoriban a gond inkább az integrálás megbízhatóságával és a hőelvezetéssel volt, de a következő évtizedekre előre tekintve a kérdés mindig ott lebegett, meddig skálázható a technológia.

Az ember-gép kapcsolat is nyitott kihívást jelentett. 1968. december 9-én Douglas Engelbart tartott egy híres bemutatót (a „Mother of All Demos”-t), ahol megmutatta az általa kitalált egér használatát, a grafikus felület csíráit (ablakok), hipertextet és videókonferenciát is. Bár a technológia készen állt, nyitott kérdés volt, hogyan lehetne ezt széles körben elterjeszteni és valóban felhasználóbaráttá tenni a számítógépeket. Az Engelbart által felvetett ötletek megvalósítása és tökéletesítése a ’70-es, ’80-as évek feladata lett (Xerox PARC, majd Apple és Microsoft munkái révén).

A mesterséges intelligenciában is maradtak nyitott problémák: bár a kezdeti optimizmus nagy volt, a határok is megmutatkoztak. 1967-re megjelentek az első nyelvfordító programok (gépi fordítás), de messze elmaradtak a várt szinttől; a gépi látás és a hangfelismerés pedig még kezdetleges stádiumban volt. Az AI versenyek közül említést érdemel, hogy 1966-ban az ELIZA program (Joseph Weizenbaum) ugyan elkápráztatta a laikusokat pszichoterapeuta-szimulációjával, de a szakmabeliek látták, hogy a mesterséges intelligencia átment egy túlzott hype-on, amit a források ideiglenes apadása követett (AI-tél a ’70-es években).

Verseny szempontjából a számítógépes sakk egy fontos terület volt: 1967-ben a MacHack VI program megnyerte az első sakkmérkőzést egy amatőr sakkjátékos ellen, és 1970-ben rendezték az első Nemzetközi Számítógépsakk-bajnokságot. Tehát a ’60-as évek végére a számítógépek közötti versengés elkezdődött az AI területén, bár ezek inkább barátságos megmérettetések voltak. A programozói versenyek is megjelentek egyetemi berkekben: a diákok összevetették BASIC vagy FORTRAN tudásukat, de a formális nemzetközi programozói versenyek (mint az ACM ICPC) csak 1977-ben indultak. Összességében a ’60-as évek végén a számítástechnika hihetetlen távlatokat nyitott, de egyúttal rávilágított a még megoldásra váró nehézségekre – a következő évtizedek ezen problémák közül sokat meg is oldottak.

1970-es évek – A mikroprocesszor és a személyi számítógép születése

Az Intel 4004 mikroprocesszor (1971) – az első kereskedelmi forgalomban kapható egylapkás központi feldolgozóegység, amely 4 biten működött és ~2300 tranzisztort tartalmazott.

Találmányok és első használatok

A 1970-es évek elején a számítástechnika új korszakba lépett a mikroprocesszorok megjelenésével. 1971. november 15-én az Intel piacra dobta a 4004 jelű mikroprocesszort, a világ első egyetlen chipre integrált CPU-ját. A 4004 csupán 4 bites adatszélességű volt és nagyjából 2300 tranzisztort tartalmazott, de képes volt másodpercenként ~60 000 művelet végrehajtására. Hamarosan követték erősebb testvérei: 1972-ben az Intel 8008 (8 bites), 1974-ben az Intel 8080, ami már ~0,5 MIPS teljesítményű, általános célú processzor volt. Ezek a mikroprocesszorok alapozták meg a személyi számítógépek létrejöttét.

1973-ban Robert Metcalfe és csapata a Xerox PARC-ban megalkotta az Ethernet technológiát, amely olcsó kábelek segítségével tette lehetővé számítógépek helyi hálózatba kötését. Az Ethernet hamar szabvánnyá vált és a későbbi lokális hálózatok (LAN-ok) gerincévé nőtte ki magát – ez is a ’70-es évek újítása. Ugyancsak 1973-ban Vinton Cerf és Robert Kahn elkezdték kidolgozni a Transmission Control Protocol (TCP) elődjét, ami az internethálózatok összekapcsolását tette lehetővé, megszületett az „internet protokollok” alapja.

A tárolás terén is voltak jelentős újdonságok: 1971-ben az IBM bevezette az 8 hüvelykes floppy lemezt adatcserére. Ez a hajlékony mágneslemez új, kényelmes módját kínálta a programok és adatok tárolásának és terjesztésének. 1979-ben megjelent a kompaktlemez (CD) prototípusa is – a Philips és a Sony kifejlesztette a digitális optikai adattárolás technológiáját, igaz a kereskedelmi CD csak 1982-ben debütált audió formátumban.

A ’70-es évek közepén megszületett a személyi számítógép fogalma. 1975 januárjában a Popular Electronics magazin címlapján bemutatkozott a MITS Altair 8800 számítógép, amely egy otthoni építésű készlet formájában volt kapható, és az Intel 8080 mikroprocesszoron alapult. Az Altair 8800 hatalmas siker lett a hobbyisták körében, és több ezer darabot adtak el belőle – sokan ezt tekintik az első PC-nek. Az Altair sikerén felbuzdulva 1975-ben Bill Gates és Paul Allen megírták az Altair BASIC tolmácsot, majd megalapították a Microsoftot a mikroszámítógépes szoftverek fejlesztésére. 1976-ban Steve Jobs és Steve Wozniak elkészítették az Apple I számítógépet (majd 1977-ben az Apple II-t), amely már készen összeszerelt formában, billentyűzettel és monitorral együtt kínált egy könnyebben használható személyi gépet. 1977 a személyi számítástechnika „szentháromságának” éve lett: piacra került az Apple II, a Commodore PET és a Radio Shack TRS-80 – három egymással versengő, de egyaránt népszerű személyi számítógép, melyek megalapozták az otthoni és irodai számítógép-forradalmat.

Hardverrendszerek és processzorok

A mikroprocesszorok forradalma alapjaiban változtatta meg a számítógépek hardverfelépítését. Az 1970-es években sorra jelentek meg az új processzorok: az Intel 8080 (1974) és ennek versenytársai, a Motorola 6800 (1974) és a MOS Technology 6502 (1975). A MOS 6502 különösen nagy hatású lett, mivel mindössze $25-ba került, így beépítették számos korai személyi számítógépbe (Apple II, Commodore PET, Atari konzolok stb.). A 8 bites processzorok generációja a ’70-es évek végére ért csúcsra: 1978-ban az Intel kiadta az 8086 processzort (16 bites belső felépítéssel, de 1979-ben piacra dobták 8 bites buszú változatát, az 8088-at is). Az Intel 8086/8088 processzorra épült később az IBM PC, de erről bővebben a ’80-as években. 1979-ben a Motorola is bemutatta a 68000-es processzort (16/32 bites architektúra), amely a következő években az Apple Macintosh és sok más gép motorja lett.

A szuperszámítógépek terén is folytatódott a verseny. 1976-ban Seymour Cray megépítette a Cray-1 vektorszámítógépet, amely 80 MFLOPS teljesítményével a világ leggyorsabb gépe lett. A Cray-1 innovatív, vektorprocesszoros kialakítást alkalmazott, mely lehetővé tette, hogy egy utasítással egész vektorsorozatokat dolgozzon fel – ezzel ideális volt tudományos szimulációkhoz (pl. időjárás-előrejelzés, aerodinamikai számítások). A Cray-1 elegáns, C-alakú formaterve és hűtőpadként funkcionáló „ülőkéje” ikonikus megjelenést kölcsönzött a szuperszámítógépek új generációjának.

A memória és háttértár kapacitás robbanásszerűen nőtt: a félvezető memóriák (RAM chipek) kiszorították a ferritmag-tárakat. 1970-ben az Intel bemutatta az első DRAM chipet, az 1103-at, amely 1 kilobit tárolására volt képes. Ez aprónak tűnik, de ezekből a chipekből modulokat építve néhány kilobájt már megbízhatóan rendelkezésre állt a mikro- és miniszámítógépekben. A merevlemezek is egyre elterjedtebbek lettek: az 1970-es évek közepén egy tipikus miniszámítógép már Winchester merevlemezzel (néhány tíz megabájtos kapacitással) érkezett. 1979-ben a Seagate kihozta az első 5,25 hüvelykes winchester merevlemezt PC-khez (5 MB kapacitással), megalapozva a PC-k belső merevlemezeit.

A számítógépes architektúrák terén a ’70-es évek végére kibontakozott a RISC (Reduced Instruction Set Computer) filozófia csírája. 1975-ben az IBM 801 prototípussal és a később induló Berkeley RISC projekttel kezdték vizsgálni, hogy egy egyszerűsített utasításkészletű processzor magas órajelen hatékonyabban működhet. Bár a RISC processzorok tömegpiaci megjelenése a ’80-as évekre esik, a koncepció alapjai már a ’70-es években formálódtak.

Operációs rendszerek

A 1970-es években az operációs rendszerek a mainframe-ektől a személyi gépekig minden szintén jelen voltak. Az IBM nagygépein futó OS/360 továbbfejlődött (megjött a virtuális memóriát támogató változat, az OS/VS), ezzel párhuzamosan megjelentek a gyártó-specifikus mainframe OS-ek (pl. DEC TOPS-10 a PDP-10 gépeken, ICL VME az ICL mainframe-eken stb.).

A miniszámítógépek világában a Digital Equipment Corporation kifejlesztette a RT-11 és RSTS/E rendszereket a PDP gépcsaládhoz, illetve 1977-ben a VMS operációs rendszert a VAX gépeihez. A VMS (Virtual Memory System) egy 32 bites virtuális memóriás, időosztásos OS volt, kifejezetten a nagyteljesítményű mini- és szuperszámítógépek igényeire szabva.

Talán az évtized legfontosabb operációs rendszer eseménye a UNIX térhódítása. A ’70-es évek elején a Bell Labs UNIX rendszere elterjedt a tudományos intézményekben, különösen miután 1973-ban a UNIX-ot C nyelven újraírták, és az AT&T kedvezményes licenc alatt hozzáférhetővé tette egyetemeknek. 1975-re számos egyetem futtatott UNIX-ot PDP-11 gépeken, és kialakult a UNIX közösség. A UNIX egyszerűsége és hordozhatósága (köszönhetően a C nyelvnek) előrevetítette, hogy a különböző számítógéptípusokon is egységes operációs rendszer futhat – ez akkoriban forradalmi gondolat volt a sok gyártó-specifikus OS mellett. 1978-ra a UNIX már eljutott a Version 7-hez, amely tartalmazta a pipe-okat, sok mai parancs elődjét és az első hálózati kommunikációs eszközöket (UUCP).

A személyi számítógépek megjelenése új operációs rendszereket hívott életre. 1977-ben a Commodore, az Apple és a Tandy gépei még jellemzően beépített BASIC interpreterrel indultak és kazettáról vagy lemezről betöltött alkalmazásokat futtattak, de hamar igény lett valamilyen lemezkezelő rendszerre. 1976-ban Gary Kildall megírta a CP/M operációs rendszert a 8 bites mikrokomputerekhez. A CP/M egyszerű parancssoros OS volt, amely lemezfájlrendszert és alapszintű programbetöltést biztosított a Z80 és 8080 alapú gépek számára. A ’70-es évek végére a CP/M vált a de-facto szabvánnyá a mikrogépek között – számtalan szoftver készült rá, és ezt tekinthetjük az MS-DOS elődjének is.

A grafikus felhasználói felület gondolata is megszületett a ’70-es években, bár még nem vált kereskedelmi valósággá. A Xerox PARC kifejlesztette a Alto számítógépet 1973-ban, amelyen egy primitív grafikus operációs környezet futott (ikonokkal, ablakokkal és egér támogatással). Az Alto sosem került piacra, de 1979-ben az Apple meglátogatta a PARC-ot és inspirációt merített a grafikus interfészből – ebből született meg majd az Apple Lisa (1983) és a Macintosh (1984) operációs rendszere. Így bár a ’70-es években a hétköznapi felhasználó még nem találkozott grafikus operációs rendszerrel, a laborokban és kutatóközpontokban már létezett ez a koncepció.

Programozási nyelvek és fejlesztői eszközök

Az 1970-es évek folyamán tovább bővült a programozási nyelvek palettája. 1970-ben Niklaus Wirth publikálta a Pascal nyelvet, amely az ALGOL örökségét vitte tovább egyszerűbb és tanulhatóbb formában, kifejezetten az oktatás és a struktúrált programozás igényeire szabva. A Pascal rövidesen népszerű lett az egyetemeken, majd a ’80-as évek PC-s környezetében is (Turbo Pascal formájában).

1972-ben megszületett a C nyelv (Dennis Ritchie), amelyet eredetileg a UNIX rendszer implementálására terveztek a Bell Labs-nál. A C hordozhatósága és hatékonysága miatt gyorsan terjedni kezdett a különféle platformokon, és a ’70-es évek végére számos szoftver (nem csak UNIX) készült már C-ben. A C nyelv bevezette a mai alacsony szintű, de mégis magas szintű nyelvek (közvetlen memóriacímzés, mutatók, strukturált típusok) alapvető eszköztárát, és hatása szinte minden későbbi nyelvben tetten érhető.

1972 egy másik jelentős nyelv születését is látta: Prolog (Franciaországban Alain Colmerauer és kollégái). A Prolog a logikai programozás nyelve, elsősorban mesterséges intelligencia, szakértői rendszerek terén használták. Újszerű volt, hogy deklaratív módon, szabályok és tények formájában kellett benne a problémát megfogalmazni, és a megoldást a logikai következtető motor kereste meg – ez teljesen más paradigmát jelentett a hagyományos imperatív nyelvekhez képest.

1975 körül a strukturált programozás és a szoftverfejlesztés módszertanai kezdtek beérni. Ekkor jelentek meg az első moduláris programozás támogatására szolgáló nyelvek, mint például a Modula (Wirth, 1977) vagy az Ada (amit az amerikai Védelmi Minisztérium megbízásából 1979-ben kezdtek fejleszteni Jean Ichbiah vezetésével, és 1983-ra készült el). Az Ada nyelv kifejlesztését éppen a ’70-es évek végén felismert szoftverválság motiválta: egy olyan egyesített, erős típusellenőrzésű nyelvet akartak, amely a nagy katonai szoftverprojektekben használható. 1979-ben be is jelentették az Ada első verzióját.

A fejlesztői eszközök terén a ’70-es évek újdonságai közé tartozott a verziókezelés és a debug technikák fejlődése. 1972-ben az Bell Labs kifejlesztette az első széles körben használt verziókövető rendszert, a SCCS-t (Source Code Control System), hogy nagy szoftverprojektek forráskódját kezelni tudják verziók és párhuzamos fejlesztések mentén. A make eszköz 1976-ban jelent meg a UNIX világban (Stuart Feldman), automatizálva a szoftverfordítás lépéseit. A ’70-es évek végére a programozók rendelkezésére álltak a modern fordítóprogramok (a C compiler, Pascal compiler stb.), linkerek, és egyre jobb szövegszerkesztők (a Unix vi editor 1976-ban készült el, a Emacs szövegszerkesztő első verziója pedig 1976-ban jelent meg Richard Stallman jóvoltából).

A ’70-es években a szoftverfejlesztés kezdett ipari méreteket ölteni, és ezzel együtt megjelentek az első integrált fejlesztői környezetek (IDE-k) csírái is. Például a UCSD Pascal rendszer (1978) egy komplett fejlesztői környezetet biztosított Pascal nyelvhez, saját operációs rendszerrel, virtuális géppel (P-code) – előrevetítve a Java VM elvét.

Alkalmazási területek

Az 1970-es évekre a számítógépek meghódították az ipart, az irodákat és az otthonokat is (legalábbis az évtized végére). A nagyvállalati informatikában standarddá váltak a relációs adatbázis-kezelők, amelyek elméleti alapjait E. F. Codd fektette le 1970-ben. A ’70-es évek második felében az IBM és más cégek kifejlesztették az első relációs adatbázis-kezelő prototípusokat (System R, Ingres), és 1979-ben a Oracle kiadta az első kereskedelmi relációs adatbázis-kezelőt. Ez forradalmasította az üzleti adatok tárolását és lekérdezését, az SQL nyelv szabvánnyá vált.

Az irodai alkalmazások az évtized végén születtek meg a személyi számítógépeken. 1978-ban jelent meg az első elektronikus táblázatkezelő program, a VisiCalc, Apple II gépeken futott és sokak szerint ez volt az első „gyilkos alkalmazás” (killer app), amely miatt emberek tömegesen vásároltak személyi számítógépet. A VisiCalc lehetővé tette pénzügyi tervek, költségvetések interaktív kalkulációját, amivel forradalmasította a könyvelést. Hasonló áttörés volt a szövegszerkesztés: bár kezdetben a számítógépes szövegszerkesztés inkább nagygépeken történt (pl. a UNIX roff/nroff programjaival), 1979-ben megjelent a MicroPro WordStar CP/M gépekre, ami az első széles körben használt PC-s szövegszerkesztő lett.

A mérnöki tervezésben (CAD – Computer-Aided Design) is megjelentek a számítógépek: az 1970-es évek közepén az autó- és repülőgépipar elkezdte használni a grafikus munkaállomásokat (pl. az IBM és a Dassault Systèmes által fejlesztett CATIA elődjei) a tervrajzok digitalizálására és szerkesztésére.

A tudományos számítások területén a szuperszámítógépek egyre nehezebb feladatokat oldottak meg: meteorológiai modellek, molekuláris dinamika szimulációk és nukleáris fegyver-szimulációk futottak a Cray-1 és az azt követő gépeken. 1979-ben a Los Alamos laborban felállították az első Cray-1 gépet, ami lehetővé tette addig elképzelhetetlen részletességű számítások végzését.

A hálózatépítés is felgyorsult: 1977-re az ARPANET hálózat már átszelte az Egyesült Államokat, és csatlakozott hozzá néhány európai csomópont is. 1978-ra az e-mail vált az ARPANET „gyilkos alkalmazásává” – a felhasználók többsége a levelezést használta leggyakrabban. Az elektronikus levelezés feltalálása Ray Tomlinson nevéhez fűződik, aki 1971-ben küldött először e-mailt két ARPANET gép között, és ő vezette be a @* szimbólumot is az e-mail címekben. A ’70-es évek végére már listák és hírlevél-szerű csoportos e-mailek is léteztek, sőt 1979-ben Tom Truscott és Jim Ellis létrehozták a Usenet* hírcsoport rendszert, amely az internet előtti fórumok, közösségi terek prototípusának tekinthető.

A szórakoztató elektronika robbanása is erre az időre tehető. 1972-ben megjelent a Pong videojáték arcade változata, megalapítva a videojáték-ipart. 1977-ben debütált az Atari 2600 játékkonzol a MOS 6502 leszármazottját tartalmazó CPU-val – ez a konzol tette otthoni hobbivá a videojátékot. 1978-ban a japán Space Invaders videojáték által kiváltott „játékgép-őrület” mutatta, hogy a számítógépek új területe a szórakoztatás lett. A számítógépes játékok a PC-kre is megérkeztek: 1978-ban jelent meg az Adventure (Colossal Cave) szöveges kalandjáték PDP-10-re, és 1979-ben az Aknafedő (Microsoft Adventure) PC-re, majd 1980-ban a Rogue – mind a későbbi játékstílusok előfutárai.

Fontos idézetek és koncepciók

A ’70-es évek számos emlékezetes mondást és koncepciót adott a számítástechnika történetéhez. 1975-ben a Homebrew Computer Club egyik levelében Bill Gates nyílt levélben ostorozta a hobbi programozókat azzal a felütéssel, hogy „nyílt levél a hobbistákhoz” – ebben sérelmezte, hogy az Altair BASIC értékes programját sokan fizetség nélkül másolják, és ezzel a szoftverfejlesztők megélhetését veszélyeztetik. Ez a levél a szoftver tulajdonjog viták korai dokumentuma, és előrevetítette a későbbi szoftverlicencelési modellek fontosságát.

1977-ben Ken Olsen, a DEC alapítója hírhedten kijelentette: „Nincs semmi ok, amiért bárki is akarna számítógépet az otthonában”. Ezt a korabeli gondolkodást jól tükröző idézetet később sokat emlegették téves jövőbelátás példájaként, hiszen pár éven belül a személyi számítógépek robbanásszerűen terjedni kezdtek. Olsen valójában a ’70-es évek végének helyzetére utalt, amikor a PC-k még kezdetlegesek voltak és kevés gyakorlati hasznot hoztak egy átlagember számára – de a technológia gyorsan rácáfolt a szavaira.

Grace Hopper egy másik, humorosabb kontextusú idézete is erre az időszakra esik: gyakran mutogatta a 30 centiméter hosszú vezetéket, mondván „ez itt egy nanosec”, utalva arra, hogy a fény vagy az elektromos jel kb. 30 cm-t tesz meg egy nanomásodperc alatt. Ezzel érzékeltette a fiatal programozóknak a számítógép belső sebességét és a késleltetések jelentőségét.

A „gyilkos alkalmazás” (killer app) fogalma szintén a ’70-es évek végén született meg, amikor a VisiCalc kapcsán használták először: arra utalva, hogy egyetlen alkalmazás (jelen esetben a táblázatkezelő) képes egész platformok sikerét meghatározni, mert a felhasználók csak emiatt megveszik a szükséges hardvert. Ez a koncepció később is gyakran előjött (pl. a ’80-as években a desktop publishing a Macintosh esetében).

Nyílt problémák és versenyek

A 1970-es években a technológiai fejlődés felvetett néhány új nyílt problémát is. Az egyik ilyen a kompatibilitás és szabványosítás kérdése. Ahogy egyre több cég gyártott mikroprocesszorokat, perifériákat és írt operációs rendszereket, fennállt a veszélye, hogy ezek egymással nem lesznek kompatibilisek. A ’70-es évek végén indult meg a szabványosítási törekvés: 1977-ben létrejött az IEEE számára a POSIX szabvány kezdeménye (bár hivatalosan csak ’80-as években standardizálták), a mikroszámítógépek világában pedig az S-100 busz (az Altair busza) és a CP/M operációs rendszer de-facto szabvánnyá vált a kompatibilitás érdekében. De kérdéses volt, hogy meddig tartható fenn az a helyzet, hogy szinte minden cég saját platformot épít – ez a nyílt probléma a ’80-as évekre a „platformháborúk” formáját öltötte (pl. PC vs. Apple vs. Commodore).

A szellemi tulajdon és szoftverlicencelés is nyitott kérdés volt. Gates említett levele rávilágított arra, hogy a szoftvereket addig hajlamosak voltak az emberek ingyenes mellékterméknek tekinteni, míg a fejlesztők már komoly munkát fektettek beléjük. Ez a probléma a ’80-as években éleződött ki jogi viták formájában (pl. IBM PC BIOS klónok, Microsoft vs. Apple „look-and-feel” per). A ’70-es évek végére ugyanakkor egy ellentétes mozgalom csírája is megjelent: Richard Stallman 1976-77 körül kezdett elégedetlen lenni a szoftverek egyre zártabbá válásával és 1983-ban elindította a GNU Projektet, de ennek előzményei a ’70-es évek közepére vezethetők vissza (pl. amikor a MIT AI lab nyomtatója szoftveréhez nem kapott forráskódot, Stallman elvi ügyet csinált belőle). Tehát a nyílt forráskódú szoftver és a proprietáris szoftver ellentéte már felütötte fejét, bár igazi versengéssé a ’80-as években vált.

A versenyek terén a ’70-es évek két fontos vonulatot hoztak: a programozói és mesterséges intelligencia versenyeket, valamint a kereskedelmi piaci versenyt. 1970-ben tartották az első ACM által szervezett számítógépes sakkbajnokságot New Yorkban – ez az esemény a számítógépek közti versengés egyik első formális megnyilvánulása. 1974-ben aztán az első Világ Számítógépsakk Bajnokságot is megrendezték Stockholmban, ami azt mutatja, hogy a nemzetek (és vállalatok) már akkor is presztízskérdést csináltak az AI ezen ágából. A ’70-es évek végén, 1977-ben elindult az ACM Nemzetközi Programozóversenye (ICPC) is, kezdetben egyetemi csapatok számára, bár igazán nagy nemzetközi eseménnyé a ’80-as évekre nőtte ki magát.

A kereskedelmi versenyben az IBM vs. a „közösség” jelentett sajátos nyílt kérdést. Az IBM mainframe-ek dominanciáját sokan meg akarták törni: 1975-ben az IBM antitröszt per még zajlott (1969-ben indították az USA-ban és csak ’82-ben zárult le). Közben a személyi számítógép piacon új szereplők bukkantak fel és kérdés volt, ki nyeri a „PC-háborúkat”. A ’70-es évek végén még nyitott volt, hogy a Tandy/Apple/Commodore hármasból ki kerül ki győztesen – végül egyikük sem közvetlenül, hanem az IBM 1981-es belépése és a nyílt PC platform lett a meghatározó. De 1979-ben ezt még nem lehetett látni; Steve Jobs pl. egy 1979-es interjúban azt mondta: „Az IBM nem tudja megcsinálni, amit mi”, utalva arra, hogy úgy vélte, az IBM túl merev a személyi számítógép piac gyors innovációihoz – ami részben igaz is volt, de az IBM mégis nyerni tudott a nyílt architektúra stratégiájával.

Összegzésképpen a ’70-es évek a számítástechnika történetében az innováció és az új lehetőségek évtizede volt. A mikroprocesszor és a PC megjelent, az internet csírái kifejlődtek, a szoftveripar pedig önálló lábra állt. A nyílt problémák és versenyek a technológia további fejlődésének irányát is kijelölték, így előkészítve a terepet a robbanásszerű ’80-as éveknek.

1980-as évek – Személyi számítógép-forradalom és az internet hajnala

Találmányok és első használatok

Az 1980-as években a számítógépek tömegcikké váltak. 1981. augusztus 12-én az IBM bemutatta az IBM PC-t (IBM 5150), egy nyílt architektúrájú személyi számítógépet, melynek tervét részben más cégek alkatrészeire építette. Az IBM PC hatalmas siker lett: már a megjelenés évében 100 000 rendelést vettek fel rá, és az IBM által teremtett platform (az Intel 8088 processzor és a Microsoft PC DOS operációs rendszer kombinációja) gyorsan ipari szabvánnyá vált. Mivel az IBM PC architektúrája „nyílt” volt (a buszok és interfészek dokumentáltak, az alkatrészek beszerezhetők), hamar megjelentek az IBM PC kompatibilis klónok is olyan gyártóktól, mint a Compaq, Dell, AST stb. Ez a nyílt megközelítés biztosította a PC hosszú távú dominanciáját.

1984 januárjában az Apple bemutatta a Macintosh számítógépet, amely az első széles körben elterjedt grafikus felhasználói felületű (GUI) számítógép lett. A Macintosh egérrel vezérelt ablakaival, ikonjaival és menüivel forradalmasította a felhasználói élményt. Bár nem ez volt az első GUI-s gép (előzte az Apple Lisa 1983-ban és a Xerox Alto kísérleti jelleggel), a Mac volt az, amelyet kereskedelmileg sikeresen árusítottak, viszonylag megfizethető $2500 körüli áron. Az 1984-es híres Macintosh reklám („1984”) a személyi számítógép mint a kreativitás eszköze szimbólumává vált. A Mac-hez alapcsomagként érkezett a MacPaint grafikus program és a MacWrite szövegszerkesztő, demonstrálva a WYSIWYG szerkesztés (amit látsz, azt kapod) előnyeit a grafikus környezetben.

A játékipar és otthoni számítógépek terén is fontos találmányok születtek: 1983-ban a Nintendo kiadta Famicom játékkonzolját Japánban (ami 1985-ben NES néven Amerikában is megjelent), új életet lehelve a videójáték-piacba az 1983-as videojáték-ipari válság után. A 8-bites mikrogépek (C64, ZX Spectrum, Apple II stb.) korszaka az évtized közepéig tartott, majd átadta helyét a 16-bites otthoni számítógépeknek: 1985-ben került piacra a Commodore Amiga 1000 és az Atari ST, melyek fejlett multimédiás képességeik (színpompás grafika, többcsatornás hang) révén népszerűek lettek az otthoni felhasználók és a játékosok körében. Az Amiga különösen úttörő volt: grafikus operációs rendszere multitaskingra volt képes és olyan programokat futtatott, amelyekkel a felhasználók zenét szerezhettek, videót digitalizálhattak (pl. NewTek Video Toaster, bár ez utóbbi a ’90-es évek elején), és persze kiváló játékplatform is volt.

Hardverrendszerek és processzorok

Az évtized elején a meghatározó processzorok a 8 és 16 bites architektúrák voltak. Az Intel 8086/8088 (16 bites belső – 8 bites külső buszú változattal) dominált a PC-knél, de 1982-ben megjelent az Intel 80286 (286) processzor, amely már 24 bites címbusszal 16 MB memóriát is megcímezhetett, és védett módot vezetett be, megalapozva a többfeladatos operációs rendszerek PC-s jövőjét. Az IBM AT gépben (1984) már 80286-os CPU volt, kihasználva e teljesítménytöbbletet. 1985-ben jött az Intel 80386 – egy valódi 32 bites processzor, amely óriási előrelépést jelentett: 4 GB címzési tartomány, beépített memóriavédelmi mechanizmusok és viszonylag magas (16-33 MHz) órajelek. A 80386 lehetővé tette a „nagy” operációs rendszerek futtatását PC-n (pl. UNIX variánsok), és 1986-ban a Compaq már piacra dobta az első 386-os PC-t (megelőzve az IBM-et). Ez mutatja, hogy a PC-platformon belül is éles verseny zajlott a gyártók közt. Az évtized végén, 1989-ben megjelent az Intel 80486 processzor, integrált matematikai társprocesszorral és ~1,2 millió tranzisztorral, mely 25 MHz-en ~20 MIPS teljesítményt nyújtott. A 486 már olyan integrációs szintet képviselt, hogy alaplapra forrasztva komplett PC-k „agya” lehetett, külön lebegőpontos koprocesszor nélkül.

A rivális CPU-k közül a Motorola 68000 család a Macintoshokban és sok munkaállomásban (pl. Sun-3) hódított. 1984-ben a Motorola bemutatta a 68020-at (32 bites, 20 MHz), 1987-ben a 68030-at (25 MHz, integrált MMU) és 1989-ben a 68040-et (ami már integrált FPU-val is rendelkezett, és 33 MHz-en ~4,5 MIPS-re volt képes). Ezek a CISC architektúrák versengtek az Intel x86 vonalával a számítógépekben – a Macintosh II 1987-ben 68020-ra épült, a Macintosh IIfx 1990-ben pedig 40 MHz-es 68030-ra.

A RISC forradalom is beindult: 1986-ban a HP kihozta az első saját RISC processzorait (PA-RISC), 1987-ben a Sun Microsystems a SPARC architektúrát, 1989-ben az MIPS a R3000-es processzort. Ezek a RISC CPU-k kevesebb tranzisztorral magas órajeleket és hatékony számítási teljesítményt értek el a munkaállomások és szuperszámítógépek terén. Bár a PC-k világában a RISC csak a ’90-es években (PowerPC, DEC Alpha) bukkant fel, az évtized végére már látható volt, hogy a RISC architektúrák kihívást intézhetnek a CISC (x86, 68k) dominancia ellen.

A tárkapacitások is rohamosan nőttek: a memóriamodulokban a ’80-as évek eleji tipikus PC még 64-256 kB RAM-mal jött, de a 640 kB („640K ought to be enough” – híresen Bill Gates-nek tulajdonított mondás) határt hamar kinőtték, és a késő ’80-as évek AT számítógépeiben már 1-4 MB RAM sem volt ritka. A merevlemezek kapacitása megugrott: az évtized elején egy PC winchester 10 MB körüli volt, 1985-re 20-40 MB, 1989-re pedig megjelentek az 100-200 MB-os meghajtók is az asztali gépekben. 1984-ben az IBM bemutatta az első 1 gigabájtos lemeztárat, igaz ez még egy hűtőszekrény méretű eszköz volt. Az optikai tárolás is valósággá vált: 1982-ben piacra került az Audio CD, majd 1985-ben a CD-ROM (650 MB tárhellyel), noha a CD-ROM meghajtók csak a ’90-es években terjedtek el a PC-kben (az első PC-s CD-ROM meghajtók 1988 körül jelentek meg).

A perifériák terén a ’80-as évek egyebek mellett a lézeres nyomtatást hozta el: az HP 1984-ben mutatta be az első LaserJet nyomtatót, ami a később irodai standarddá vált gyors és minőségi nyomtatást tette lehetővé. A grafikus megjelenítés is hatalmasat lépett: 1981-ben az IBM CGA (színes grafikus adapter) 4 színt tudott egyszerre, 320×200 felbontásban. 1984-ben jött az EGA (16 szín, 640×350), majd 1987-ben a VGA (256 szín, 640×480, sőt emlékezetes 320×200-as módban 256 színű „MCGA”). 1989-ben pedig a VESA (Video Electronics Standards Association) megalakult és megalkotta a VESA BIOS kiterjesztést a grafikus kártyák egységes kezelésére. A PC-s grafika fejlődése megalapozta a későbbi gazdag multimédiát.

Operációs rendszerek

Az 1980-as évek a személyi számítógépek operációs rendszereinek berobbanását hozták. Az IBM PC 1981-ben a PC DOS 1.0-val érkezett (amit a Microsoft szállított MS-DOS néven más klónokra is). Az MS-DOS a ’80-as évek első felében a PC-k meghatározó OS-e lett: parancssoros, egyfelhasználós, egyszerre csak egy programot futtató rendszer volt, de a hardver egyszerűsége miatt gyors és folyamatosan fejlődött. 1983 márciusában kijött az MS-DOS 2.0, amely már al-mappákat (könyvtárakat) is támogatott a fájlrendszerben. Az MS-DOS uralma egészen 1995-ig tartott a fogyasztói PC-ken, bár idővel grafikus felülettel kombinálták.

A grafikus felületek a PC világban is megjelentek: 1985 novemberében a Microsoft kiadta a Windows 1.0-t, ami az MS-DOS-ra épülő grafikus héj volt (korlátozott multitaskinggal, ikonokkal, ablakokkal). Bár a Windows 1.0 és a 1987-es 2.0 még nem volt átütő siker, megalapozta a Microsoft későbbi grafikus rendszereit. Az Apple Macintosh viszont már 1984-től komoly GUI-s operációs rendszerrel rendelkezett (System 1.0, majd System 6-ig jutott a ’80-as évek végén), amely könnyű használatával és grafikus képességeivel népszerű volt a desktop kiadványszerkesztésben. „Look and feel” per zajlott az Apple és Microsoft között, mivel az Apple úgy vélte, a Windows 2.0 túlzottan lemásolta a Mac felületét – a jogvita végül 1997-ig húzódott és peren kívüli megegyezés lett belőle, amikor az Apple ejtette a vádat.

A hálózati operációs rendszerek is megjelentek: 1983-ban a Novell kiadta a NetWare rendszerét, amely PC alapú szervereken futva lehetővé tette fájl- és nyomtatómegosztást helyi hálózatokon. A Novell NetWare a ’80-as évek második felében de-facto szabvánnyá vált a PC hálózatokban.

A UNIX szintén hódított: a ’80-as évek elején megjelentek az első kereskedelmi UNIX verziók (Xenix – a Microsoft saját UNIX-a 1980-ban, majd a AT&T UNIX System V 1983-ban). Az AT&T feloldotta a korábbi licenckötöttségeket, így a UNIX a vállalati miniszámítógépektől a mainframe-eken át a munkaállomásokig mindenhová beférkőzött. 1982-ben a Sun Microsystems megalakulásakor a UNIX-ot választotta munkaállomásain (SunOS/BSD variáns), 1983-ban az AT&T UNIX System V kiadása egységesíteni próbálta a különböző UNIX ágazatokat. A ’80-as évek végére azonban már UNIX „háború” bontakozott ki a különböző gyártói verziók között (Xenix, SCO, SunOS, HP-UX, AIX, etc.), míg másik oldalon a közösség 1983-ban elindította a GNU projektet, egy szabad UNIX-klón megalkotására. 1985-ben megalakult a Free Software Foundation Stallman vezetésével, ami a szabad operációs rendszer és szoftverek fejlesztését koordinálta – a ’80-as években a GNU sok eszközt (fordítókat, szerkesztőket) készített el, de a kernel hiányzott; ennek megoldására 1991-ig kellett várni (Linux megjelenése).

A szuperszámítógépek és mainframe-ek operációs rendszerei is fejlődtek: az IBM 1988-ban mutatta be az MVS utódját, a ESA/370 architektúrát futtató MVS/ESA-t mainframe-jein; a Cray szuperszámítógépek saját COS operációs rendszert futtattak, majd Unicos néven UNIX-alapú rendszert. A felhő-előd „hálózat, mint számítógép” koncepció pedig 1984-ben kapott hangot John Gage (Sun) híres mondásában: „The network is the computer.” – utalva arra, hogy a SUN gépek hálózatba kötve egy nagy erőforrásként működhetnek.

Programozási nyelvek és fejlesztői eszközök

Az ’80-as években a programozási nyelvek terén a struktúrált, moduláris és objektumorientált szemlélet erősödött meg. 1983-ban jelent meg hivatalosan az Ada nyelv első verziója (Ada 83), amelyet a védelmi iparban és repülésben kezdtek alkalmazni biztonságkritikus szoftverekhez.

1985-ben Bjarne Stroustrup publikálta a C++ nyelv első hivatalos kiadását (a „C with Classes” kísérleti nyelvből kinőve). A C++ a C nyelv hatékonyságát ötvözte az objektumorientált programozás lehetőségeivel, így hamar népszerű lett a kereskedelmi szoftverfejlesztésben. A ’80-as évek végére a C++ már számos platformon elérhető volt, és kezdte felváltani a klasszikus C-t nagy szoftverprojektekben.

A funkcionális programozás is kapott egy lökést: 1984-ben megjelent a Miranda nyelv az egyetemeken (David Turner), ami a későbbi Haskell nyelv előfutára volt. Bár a funkcionális nyelvek (Lisp, ML, Scheme, Miranda) inkább akadémiai körökben maradtak, hatásuk a nyelvelméletre és később a gyakorlati nyelvekre is (lambda kifejezések, magasabbrendű függvények) tetten érhető.

A BASIC nyelv továbbfejlődött az otthoni számítógépekben: szinte minden mikrogéphez saját BASIC változat járt (Commodore BASIC, GW-BASIC, AppleSoft BASIC stb.). 1985-ben a Microsoft kiadta a QuickBASIC-et PC-re, ami már szerkesztőfelülettel és fordítóval segítette a BASIC programozókat.

A szoftverfejlesztő eszközök terén a ’80-as évek nagy újítása a visual (vizuális) fejlesztői környezetek megjelenése. 1988-ban a Microsoft kiadta a Visual Basic elődjét jelentő QuickBasic Extended-et (QuickBASIC 4.5), majd 1991-ben jött a Visual Basic maga, de ennek alapjai a ’80-as évek végi integrált környezetekre nyúlnak vissza. A Turbo Pascal (Borland) 1983-as megjelenése forradalmasította az IDE fogalmát PC-n: a szerkesztő, fordító és futtató integrálva, villámgyors fordítással tette lehetővé a fejlesztést – a Turbo Pascal és később Turbo C, Turbo C++ a fejlesztők széles körében népszerű eszköz lett.

A verziókezelés szélesebb körű használata is az ’80-as években terjedt el: a Unix világban 1986-ban megjelent a RCS (Revision Control System), majd 1990-ben a CVS (Concurrent Versions System) – ezek lehetővé tették nagy szoftverprojektek kódbázisának egyidejű kezelését több fejlesztő között.

A hálózati programozás is új eszközöket kapott: 1984-ben a BSD Unix 4.2 bevezette a sockets API-t, ami a hálózati kommunikáció de-facto sztenderdjévé vált, és amelyen keresztül készült el sok internetes szoftver (FTP, SMTP, etc.). 1989-re pedig a Tim Berners-Lee által javasolt World Wide Web protokollok (HTTP, HTML) kidolgozása megkezdődött – ez még nem programozási nyelv, de új jelölőnyelv (HTML) és átviteli protokoll (HTTP) születését jelentette, melyeket a ’90-es évek programozói már bőszen használtak webfejlesztéshez.

Alkalmazási területek

Az 1980-as években a számítástechnika mindennapivá válása gyökeresen átalakította az alkalmazási területeket. Otthon és oktatás: A személyi számítógépek – ZX Spectrum, Commodore 64, Apple II, IBM PC és klónjaik – tömegesen elterjedtek az otthonokban és iskolákban. Ezáltal a gyerekek és felnőttek milliói találkoztak először számítógéppel, általában játék vagy tanulás céljából. Az oktatásban megjelent az informatika mint tantárgy, és a diákok BASIC-ben programoztak iskolai mikrogépeken.

Az irodai munka radikális átalakuláson ment át a PC-k és szoftvercsomagok révén. 1983-ban a Lotus 1-2-3 program (Lotus Development Corporation) egyesítette a táblázatkezelést, grafikonrajzolást és alapszintű adatbázis-kezelést egy MS-DOS alkalmazásban – ez a program az üzleti világban az IBM PC egyik húzóalkalmazása lett, a VisiCalc utódaként. A szövegszerkesztés terén a WordStar (1981) mellett 1983-ban a Microsoft Word (DOS-ra) és 1985-ben a Aldus PageMaker (Macintoshra) megjelenése kiemelhető. A PageMaker és az Apple LaserWriter nyomtató (PostScript-alapú) párosa lehetővé tette az asztali kiadványszerkesztést (desktop publishing), ami addig drága szedőgépeket igényelt. Ennek eredményeként kis kiadók, irodák is készíthettek nyomdai minőségű anyagokat – az 1985-ös Mac + LaserWriter + PageMaker triumvirátust sokan a DTP forradalom kezdetének tartják.

A hálózatok és kommunikáció robbanása is az évtizedhez köthető: 1983. január 1-jén az ARPANET hivatalosan átállt a TCP/IP protokollra – ezt tekinthetjük az internet születésnapjának. Innentől kezdve gyorsulni kezdett a hálózat bővülése. 1985-ben létrejött az NSFNET az USA-ban, ami az egyetemeket kapcsolta össze nagy sávszélességű gerinchálózattal, felváltva fokozatosan az ARPANET-et. 1988-ra nemzetközi méretű, TCP/IP-t használó hálózat alakult ki (ekkor csatlakozott Magyarország is először egy email átjárón keresztül, majd 1990-ben teljes értékűen). A ’80-as években ugyan az „internet” még főként tudományos intézmények eszköze volt, de már ~100 000 számítógép csatlakozott rá, és ekkor jelentek meg az első internetes szolgáltatások a nagyközönség számára: pl. 1989-ben indult a PSINet mint az első kereskedelmi internet-szolgáltató (ISP) az USA-ban. Az e-mail ekkorra már az üzleti életben is mindennapossá vált, legalábbis a technológiai szektorban – 1982-ben meghatározták az SMTP protokollt szabványként. 1988 novemberében azonban figyelmeztetést is kapott az internet közössége: a Morris-féreg vírusfertőzés átmenetileg megbénította a hálózat jelentős részét, mintegy 6000 gépet megfertőzve a ~60 000-ből, ezzel történelmi első nagy internetes támadásként vonult be. A Morris-féreg ráirányította a figyelmet a hálózati biztonság kérdésére, és közvetve hozzájárult a CERT megalakulásához 1988-ban az incidenskezelés koordinálására.

A szórakoztatóipar és média digitalizációja is felgyorsult. A filmekben megjelent a számítógépes grafika: 1982-ben a Tron film úttörő módon használt CGI jeleneteket, 1984-ben a The Last Starfighter teljes egészében számítógéppel generált űrcsatát tartalmazott. 1986-ban a Pixar kiadta az első teljesen számítógéppel animált rövidfilmet (Luxo Jr.), jelezve hogy a rajzfilm-animációban is itt a digitális kor. A zenei világban a digitális szintetizátorok és a MIDI szabvány (1983) lehetővé tették különböző eszközök összekapcsolását és számítógéppel vezérelt zeneszerzést. A hangrögzítés is áttért digitális formátumokra: 1982-ben a CD bevezetése, 1987-ben az első MP3 algoritmus prototípus (a végleges szabvány 1993-ban jött ki).

A videójátékok a ’80-as években hatalmas iparággá váltak: a Nintendo és Sega konzolok milliók otthonába jutottak el, míg a PC-k és otthoni számítógépek is platformot biztosítottak ezerféle játéknak. 1984-ben jelent meg a máig híres Tetris (Alekszej Pazsitnov), 1985-ben a Super Mario Bros., 1989-ben a SimCity és a Prince of Persia – hogy csak néhány meghatározót említsünk. A játékok fejlődése hajtotta a grafikushardver és a hangkártyák fejlődését is: 1989-ben a Creative Labs kiadta az első Sound Blaster hangkártyát, ami szabvánnyá tette a PC-kben a polifonikus hangokat és digitális audiólejátszást.

Fontos idézetek és koncepciók

Az 1980-as évek számos szállóigéje közül néhány örökre beégett az informatika történetébe. 1981-ben, amikor az IBM PC megjelent 640 kB maximális konvencionális memóriával, Bill Gates-nek tulajdonítottak egy kijelentést: „640K mindenkinek elég kell legyen”. Gates később többször cáfolta, hogy ezt szó szerint így mondta volna, de a mondás elterjedt, mint a számítástechnikai jóslatok kudarcának jelképe – a szoftverek ugyanis pár éven belül meghaladták ezt a memóriaigényt.

1983-ban az Apple bemutatkozó reklámfilmje (rendezte Ridley Scott) a szürke diktatúra elleni lázadó nővel az IBM-et mint „Big Brother”-t ábrázolta, és azt sugallta, hogy „1984” nem úgy lesz, ahogy Orwell megírta, mert jön a Macintosh, ami felszabadítja a számítástechnikát”. A reklám végén hangzik el: „És megtudod, miért nem lesz 1984 olyan, mint 1984”. Ez a spot egy korszak reklámkultúrájának ikonja, és az Apple küldetéstudatát fejezte ki.

1985-ben, a Microsoft Windows indulásakor Steve Jobs azzal vádolta a Microsoftot, hogy „nincs bennük eredetiség”, mire állítólag Bill Gates így válaszolt: „Steve, azt hiszem, hogy mindketten egy gazdag szomszéd Xerox gépházába törtünk be, hogy ellopjunk egy tévét, csak te előbb értél oda és azt mondod, én loptam el tőled”. Ez a csípős megjegyzés utal arra a köztudott tényre, hogy mind az Apple, mind a Microsoft merített ötleteket a Xerox PARC fejlesztéseiből a grafikus felület kapcsán. Gates ezzel kvázi elismerte, hogy a GUI alapötlete nem az Apple-é és nem is a Microsofté, hanem a Xeroxé – de a lopás metaforával érzékeltette a versengést is kettejük közt.

Andy Grove, az Intel vezérigazgatója mondta 1983-ban: „Csak a paranoiások maradnak fenn” („Only the paranoid survive”), utalva ezzel arra, hogy az állandó versenyben a folyamatos éberség és újítás képessége a kulcs – ez a mondás később könyvcímként is híressé vált, és a Szilícium-völgy cégkultúrájának mottója lett.

1989-ben, amikor a World Wide Web ötlete megszületett Tim Berners-Lee fejében, sokan kétkedtek. Akkoriban hangzott el a vélemény néhány tudóstól: „Ki akarhatná az egész világot behálózó hypertextet használni? Kinek van erre ideje?”. Ez inkább utólag feljegyzett anekdota, de jól mutatja, hogy még az internetes forradalom küszöbén sem látta mindenki előre a változás mértékét.

Nyílt problémák és versenyek

Az 1980-as években számos nyílt probléma konkretizálódott, melyek megoldása a következő évtizedek feladata lett. Az egyik ilyen a számítógép-hálózatok összekapcsolása globális méretekben. Bár a TCP/IP megszületett és az internet növekedett, nyitott kérdés volt a skálázódás (a címek, routing kérdései – amit később az IPv6, BGP protokoll stb. oldott meg részben), valamint a hozzáférés demokratizálása: a ’80-as évek végén az internet még főleg egyetemi és kutatóhálózat volt, a nagy nyitás 1989-1990-ben indult, de a hogyan és miként sok szempontból nyitott volt.

A szoftverek komplexitása tovább nőtt, és bár a struktúrált és objektumorientált módszerek segítettek, a „szoftverválság” még nem múlt el. 1986-ban Fred Brooks kiadott egy híres esszét „No Silver Bullet” (Nincs csodafegyver) címmel, amelyben kifejtette, hogy nincs egyetlen varázsmódszer vagy eszköz, ami tízszeres javulást hozna a szoftverfejlesztés termelékenységében. A ’80-as évek végére ezért még mindig nyílt problémaként állt, hogyan lehet megbízható, nagy szoftverrendszereket határidőre és költségvetésen belül szállítani. Erre a válaszok (pl. formális módszerek, fejlett fejlesztői eszközök, később agilisan moduláris metodológiák) a későbbiekben érkeztek.

A szellemi tulajdon és „look-and-feel” viták is nyitott kérdések maradtak. Az Apple vs. Microsoft per egészen 1997-ig húzódott (végül megegyeztek: Microsoft befektetett az Apple-be, cserébe az Apple ejtette a pert). Közben a nyílt forráskódú mozgalom erősödött: 1989-ben kiadták a GNU General Public License (GPL) 1.0 verzióját, ami a szabad szoftverek jogi keretét teremtette meg. A zárt vs. nyílt szoftverek versenye és együttélése egyre inkább a figyelem középpontjába került, de egyelőre a zárt forrású szoftver dominanciája nyilvánvaló volt (Microsoft ekkorra a szoftveripar óriásává nőtt, az FSF pedig még csak a fundamentumokat rakta le).

A piaci verseny extrémen kiélezett volt: a PC-piacon 1987-88-ra a tajvani klóngyártók és a Compaq vezette olcsóbb klónok kiszorították az IBM-et a vezető pozícióból – nyitott kérdés volt, az IBM tudja-e tartani vezető szerepét (nem tudta). Az Apple a Mac sikeres rajtja után 1985-ben belső konfliktus miatt elvesztette Steve Jobs-ot (akit eltávolítottak a cégből), és a késő ’80-es évekre az Apple piaci részesedése stagnált, majd csökkenni kezdett, nyitva hagyva a kérdést, túléli-e a cég a következő évtizedet (ez 1997-98 körül vált kritikus kérdéssé, mire Jobs visszatért). A mikroprocesszoroknál az Intel vs. Motorola vs. RISC háború körvonalazódott: nyitott volt, hogy a RISC architektúrák átveszik-e a vezetést. A ’80-as évek végén úgy tűnt, a RISC munkaállomások (Sun, SGI, IBM) technikai fölényben vannak a PC-kkel szemben, de nyitott maradt, hogy ez a fogyasztói piacon is megjelenik-e (végül a PC vonal maradt domináns x86-tal, a RISC pedig az 1990-es években inkább a beágyazott és mobil szegmensben hódított, lásd ARM).

A mesterséges intelligencia újabb reneszánsza is a ’80-as évekhez köthető: az ún. „második AI nyár” időszaka volt ez, különösen a szakértői rendszerek térnyerése miatt. Vállalatok dollár százmilliókat öltek olyan AI rendszerfejlesztésbe, ami speciális problémákat oldott meg (pl. orvosi diagnosztika, hitelbírálat). Nyitott maradt azonban, hogy ezen rendszerek mennyire skálázhatók és általánosíthatók – a válasz az lett, hogy a legtöbb szakértői rendszer csak szűk területen működik jól, és az AI ismét átmeneti csalódást okozott a 80-as évek végére. A szélesebb értelemben vett mesterséges intelligencia, különösen a neurális hálózatok, 1986-ban újra előtérbe kerültek (Rumelhart és McClelland munkái a visszaterjesztés algoritmusáról), de gyakorlati sikerük még váratott magára a korlátozott számítási kapacitás miatt.

Versenyek terén a ’80-as években nemzetközi diákolimpiák is indultak: 1989-ben tartották meg az első Nemzetközi Informatikai Diákolimpiát (IOI) Bulgáriában, jelezve, hogy a programozási versenyek már a középiskolás szintre is kiterjedtek világszerte. Az ACM ICPC is növekedett és 1989-ben már 30+ ország egyetemi csapatai vettek részt. Az AI versenyek közül a számítógépes sakkban 1988-ban az IBM Deep Thought programja megnyerte a világbajnokságot és kihívta Kaszparovot (1989-ben játszottak is, Kaszparov még nyert; Deep Thought utódja lett a ’90-es évek Deep Blue-ja). Emellett 1980 óta évente megrendezték a Loebner-díjat a Turing-teszt jellegű beszélgető AI-knak – ezek show-jellegű versenyek voltak, melyeket egyik program sem nyert meg meggyőzően (és máig nem nyert „teljes Turing-tesztet” senki).

Az 1980-as évek végére a számítástechnika világa elképesztően kitágult, de ezzel új kihívások érkeztek. A hidegháború vége (1989) nyomán a korábban katonai célú internet megnyílt a civil szféra felé, megteremtve az 1990-es évek dot-com korszakának alapjait. A PC-k mindenhol ott voltak, de a szoftverek és hardverek interoperabilitása, a szabványok harca és a felhasználói igények kielégítése folyamatos versenyt diktált a cégeknek. Az évtized nyitott kérdései, – hogyan integráljuk globálisan a hálózatokat, hogyan kezeljük a növekvő szoftverkomplexitást, hogyan védjük meg az adatokat és rendszereket – közvetlenül vezettek a következő évtized technológiai irányaihoz.

1990-es évek – Az internet és a multimédia forradalma

Találmányok és első használatok

A 1990-es évek központi találmánya kétségtelenül a Világháló (World Wide Web) volt. 1990 végén Tim Berners-Lee a CERN-ben elkészítette a WorldWideWeb nevű első böngészőt és webszervert, miután 1990. november 12-én beadott javaslatában használta először a „World Wide Web” kifejezést. 1991 augusztusában a web nyilvánossá vált az interneten: Berners-Lee közzétette a WWW leírását és forráskódját nyíltan, ami lehetővé tette, hogy bárki futtasson webszervert és fejlesszen böngészőt. A web feltalálása egyesítette a hypertext koncepcióját az internet protokolljaival, és rövidesen hatalmas lendületet adott az internet elterjedésének. 1993-ban jelent meg az NCSA Mosaic böngésző, az első széles körben használt grafikus web-böngésző, Marc Andreessen és csapata jóvoltából. A Mosaic népszerűsége miatt 1994-től a web forgalma exponenciálisan nőni kezdett. 1994-ben Netscape (Andreessen új cége) kiadta a Netscape Navigator böngészőt, amely a ’90-es évek közepének domináns böngészőjévé vált.

A web mellett számtalan internetes technológia született: 1991-ben indult a Gopher (egy menürendszeres internetes információkereső protokoll) – bár a web hamar túlnőtt rajta, a Gopher újdonsága jelezte az online információelosztás igényét. 1998-ban jelent meg a Google kereső (először Stanford-projektként), amely forradalmasította a weben való keresést intelligens PageRank algoritmusával.

A számítógépes hardverben a ’90-es évek hozta el a gigahertz határának megközelítését: 1993-ban az Intel kiadta a Pentium processzort (P5 mikroarchitektúra), ami 60/66 MHz-en futott, de az évtized végére, 1999-re az Intel Pentium III már 500 MHz felett járt, az AMD Athlon pedig 750 MHz-nél. 2000-ben (közvetlenül az évtized végén túl) lépte át először kereskedelmi CPU az 1 GHz-et (AMD Athlon, majd Pentium III). A mikroprocesszoroknál nyílt kérdés volt a hőtermelés és órajel-skálázás, amit egy darabig a félvezető csíkszélességek csökkentése megoldott.

A tárolástechnika ugrásszerű fejlődést mutatott: a merevlemezek kapacitása a 90-es években a megabájtos tartományból gigabájtossá nőtt. 1991-ben az első 3,5”-os 1 GB-s HDD megjelent, 1998-ra már 10-20 GB-os merevlemezek voltak a PC-kben. A CD-ROM a ’90-es évek elején rohamosan elterjedt mint szoftverterjesztési és adattárolási médium. 1995-ben a DVD formátum szabványosodott (és 1997-től jelentek meg a DVD-lejátszók, PC-s DVD-ROM-ok), ami 4,7 GB kapacitást nyújtott optikai lemezen, megnyitva az utat a digitális videó és nagy szoftverek terjesztése előtt.

A 90-es években a mobileszközök is kezdték integrálni a számítástechnikát: 1992-ben az IBM bemutatta az IBM Simon személyi kommunikátort, amit az első okostelefonnak tekintenek (a funkciói közt e-mail, fax, naptár is volt). Bár kereskedelmileg nem lett átütő siker, a Simon jelezte a jövőt. 1996-ban megjelent a Palm Pilot kéziszámítógép, ami a PDA-k (Personal Digital Assistant) korszakát indította el. Ezek a zsebgépek korlátozottak voltak, de naptár, címtár, jegyzetek kezelésére és némi szinkronizálásra használták őket – a mobil számítástechnika csírái.

Hardverrendszerek és processzorok

Az évtized elején a processzorpiacot az Intel uralta a Pentium sorozattal. 1995-ben megjelent a Pentium Pro (P6 architektúra), amely a szerverek és munkaállomások piacát célozta, és újdonságként a processzorlapkára integrált másodszintű cache-t tartalmazott. A Pentium Pro 200 MHz-es csúcssebességével és 5,5 millió tranzisztorával a csúcsteljesítményt képviselte a maga idejében. 1997-ben az Intel kiadta a Pentium II-t, amely a Pentium Pro magját kombinálta multimédiás kiterjesztésekkel (MMX) – ezzel a PC-k már jobban boldogultak grafikával, hanggal, videóval. 1999-ben a Pentium III is megjelent (Katmai mag 450–600 MHz-en), SSE utasításkészlettel a 3D grafika gyorsítására.

Az AMD mint versenytárs a ’90-es években erősödött meg: 1999-ben kihozták az Athlon processzort (K7 architektúra), amely 500–750 MHz között futott és sok tekintetben felülmúlta az azévi Pentium III-at. Az AMD Athlon volt az első komoly kihívója az Intelnek a csúcsteljesítmény terén, megelőlegezve a 2000-es évek CPU „óraszámháborúit”.

A RISC architektúrák a munkaállomásokban és szerverekben érték el csúcspontjukat: a Sun SPARC, SGI MIPS, IBM POWER, HP PA-RISC processzorcsaládok mind új generációkkal jöttek ki. 1995-ben az IBM és Motorola közösen piacra dobta a PowerPC 604e processzort, ami a Macintoshokban és IBM munkaállomásokban futott, 350 MHz körüli órajelekkel. A DEC 1992-ben bemutatta az Alpha 64 bites RISC processzort, ami éveken át a világ leggyorsabb CPU-jának számított órajelenkénti műveletekben. Az Alpha 1996-ban már 500 MHz-en járt, messze megelőzve az Intel órajeleit akkoriban.

Ezzel együtt a RISC vs CISC vita is lezárult abban az értelemben, hogy mindkét oldal közeledett egymáshoz: az Intel P6 architektúra belsőleg már mikro-utakra törte a CISC utasításokat (dynamikus utasításfordítás), míg a RISC chip-ek egyre több tranzisztort kezdtek használni cache-re és speciális funkciókra, nem csupán „egyszerűek” voltak. Végső soron az x86 vonal maradt a PC-knél domináns, de a RISC architektúrák integrálódtak a beágyazott rendszerekbe és később a mobil eszközökbe.

A perifériák és buszrendszerek terén is jelentős fejlesztések történtek. 1993-ban az Intel bevezette a PCI buszt, ami leváltotta az ISA/EISA buszokat a PC-ben, lényegesen nagyobb átviteli sebességet és plug-and-play konfigurációt kínálva. 1997-ben megjelent az AGP port a grafikus kártyák számára, dedikált sávszélességet adva 3D grafikának. 1996-ban a USB 1.0 szabvány megszületett (az első széles elterjedése 1998 körül, USB 1.1 formájában történt), ami egységesítette a csatlakozófelületet a billentyűzet, egér, nyomtató, kamera stb. számára.

A grafikus gyorsítás a PC-ben óriásit lépett: 1996-ban a 3dfx cég kiadta a Voodoo Graphics 3D gyorsítókártyát, ami forradalmasította a PC-s játékok megjelenítését. Ezzel kezdetét vette a GPU-k (Graphics Processing Unit) felemelkedése. 1999-ben az NVIDIA piacra dobta a GeForce 256 GPU-t, amelyet az első „GPU”-ként marketingeltek, mivel tartalmazott hardveres transzformációs és világítási (T&L) egységet. Ez lehetővé tette, hogy a bonyolult 3D számításokat (mátrixtranszformációk, fénymodellek) a videókártya végezze, felszabadítva a CPU-t – a modern grafikus számítási paradigma kezdete.

Operációs rendszerek

A 90-es évek elején a PC-k többségén még MS-DOS futott, gyakran grafikus felülettel (Windows 3.0/3.1) kiegészítve. 1990 májusában a Microsoft kiadta a Windows 3.0-t, amely az első széles körben sikeres Windows verzió lett, multitask módon futtatva több DOS programot a 386-os processzor védett módját kihasználva. A Windows 3.0 és a rá következő 3.1 (1992) már valódi fenyegetést jelentett a Macintosh számára, mert egyre több felhasználó váltott át a hasonló képességeket kínáló, de olcsóbb PC platformra.

  1. augusztus 24-én aztán megérkezett a Windows 95, amely 32 bites, preemptív multitasking operációs rendszer volt, integrált grafikus felülettel, és maga mögött hagyta a régi 640 KB limitet. A Windows 95 hatalmas marketingkampány kíséretében debütált, és percek alatt elfogyott az üzletekből. Beépítve tartalmazta az akkor új Internet Explorer 1.0 böngészőt is (melyet a Plus! csomagban lehetett külön telepíteni, majd Windows 95 OSR2.5-től integráltan jött). A Windows 95 egyesítette a DOS/Windows vonalakat egyetlen termékbe, és megkönnyítette a felhasználók számára az internet csatlakozást is (bár az igazi integráció a Windows 98-ban történt).

A Macintosh vonalon az Apple 1991-ben kiadta a System 7-et, egy továbbfejlesztett, színes GUI-s operációs rendszert, amely memóriavédelmet ugyan még nem nyújtott, de multitaskingot és sok új funkciót igen. Az Apple azonban egyre inkább lemaradt az OS-fejlesztésben a 90-es években; a Copland nevű teljesen újraírt OS projektjük kudarcot vallott, és végül 1997-ben az Apple úgy döntött, külső forrásból szerzi be új generációs OS-ét – megvásárolták NeXT vállalatot, amellyel Steve Jobs visszatért, és a NeXTSTEP alapjain építették fel a későbbi Mac OS X-et (de ez már 2001-ben jelent meg, a 90-es évek végén folyt a fejlesztése).

A UNIX származékok erősen jelen voltak a szervereken és munkaállomásokon. 1991-ben azonban egy új szereplő lépett színre: Linus Torvalds finn hallgató bejelentette, hogy hobbiból fejleszt egy szabad operációs rendszermagot a PC-jére – ez lett a Linux kernel. Az 1991. augusztus 25-i híres Usenet üzenet így kezdődött: „Hello mindenki… Egy (szabad) operációs rendszeren dolgozom (csak hobbi, nem lesz nagy és profi, mint GNU) 386(486) AT klónokra”. Torvalds 1991 őszén publikálta a Linux 0.01 kódját, és 1994 márciusában kiadta az első hivatalos stabil változatot, a Linux 1.0-t. A Linux a ’90-es évek közepén robbanásszerűen fejlődött, köszönhetően a GNU projekt által biztosított szoftvereszközöknek és a nemzetközi közreműködői közösségnek. 1999-re a Linux kernel 2.2-es verziója jelent meg, és becslések szerint több mint 10 millió felhasználó futtatott Linuxot világszerte, főleg szervereken és technikai környezetben. A Linux a nyílt forráskódú mozgalom diadalának számított, és a dot-com éra internetes infrastruktúrájának kulcselemévé vált (webszerverek, DNS szerverek, stb. gyakran Linuxon futottak).

A Windows NT vonal is elindult: 1993-ban a Microsoft kiadta a Windows NT 3.1-et, egy teljesen 32 bites, üzleti szerverekre és munkaállomásokra szánt OS-t (Dave Cutler vezetésével, VMS alapelvekre építve). Ez a vonal a 90-es évek végére találkozott a fogyasztói vonallal: 1996-ban jött a Windows NT 4.0 (amely Windows 95-szerű felületet kapott), majd 2000-ben a Windows 2000 – utóbbi már egyesítette a felhasználói és vállalati Windows vonalat NT alapon, kvázi a Windows 95/98 utódjaként is működött.

A hálózati operációs rendszerek terén a Novell NetWare uralma a ’90-es években fokozatosan csökkent, ahogy a Microsoft 1996 után megjelent a Windows NT Server termékcsaláddal, integrált tartománykezeléssel (Active Directory 1999-ben készült el). A nyílt szabványok is tért nyertek: 1998-ban jelent meg a Samba szerver, ami lehetővé tette, hogy UNIX/Linux gépek Windows hálózatokban fájl- és nyomtatómegosztást végezzenek, ezzel nyitott forrású alternatívát kínálva a Windows szerverfunkciókra.

A kézi eszközök OS-ei is megjelentek: 1996-ban a Palm OS a PDA-kon, 1996-ban a Windows CE (későbbi Pocket PC, Windows Mobile) a kéziszámítógépeken. Ezek még kezdetlegesek voltak, de megalapozták a mobil operációs rendszerek fejlődését.

Programozási nyelvek és fejlesztői eszközök

A 90-es években a programozási nyelvek terén két nagy trend volt: az objektumorientált programozás térnyerése a nagy projekteknél, és az internet/programozás új nyelveinek megjelenése. 1995 körül valóságos nyelvdömping történt:

  • Java: 1995 májusában a Sun Microsystems bemutatta a Java nyelvet és platformot (eredetileg 1991-től „Oak” kódnéven fejlesztették). A Java mottója „Write Once, Run Anywhere” lett, utalva a virtuális gépre (JVM) épülő, platformfüggetlen bytecode végrehajtásra. A Java gyorsan népszerű lett a webes (appletek a böngészőben) és szerveroldali fejlesztésben egyaránt, mivel objektumorientált, biztonságos (pointerek nélküli), és gazdag standard könyvtárral rendelkezett.
  • JavaScript: 1995-ben a Netscape cég kifejlesztette a JavaScript nyelvet (Brendan Eich munkája), amelyet a Netscape Navigator böngészőbe építettek be, hogy dinamikus interakciókat tegyen lehetővé weboldalakon. A JavaScript (eredetileg LiveScript) névválasztása marketingfogás volt, a nyelvnek kevés köze volt a Javához, viszont ez lett a szabványos kliens-oldali szkript nyelv a weben. 1996-ra a Microsoft is implementálta (JScript néven) az Internet Explorerbe, majd az EcmaScript szabvány 1997-ben formalizálta a nyelvet.
  • PHP: 1995-ben Rasmus Lerdorf nyilvánosságra hozta a PHP/FI nevű egyszerű szkriptet CGI feladatokra, amelyből kinőtt a PHP nyelv. A PHP (PHP: Hypertext Preprocessor) kifejezetten webes szerveroldali programozásra készült, beágyazható HTML-be. 1998-ra a PHP3 verzió már széles körben használt volt dinamikus weboldalak létrehozására, köszönhetően az egyszerű szintaxisának és az ingyenes elérhetőségének.
  • Python: bár a Python első verziója 1991-ben született (Guido van Rossum alkotása), a nyelv igazán a ’90-es évek második felében kezdett terjedni a programozók között, 1.5-ös verzió (1998) körül. A Python a tiszta, olvasható szintaxisával és sokoldalú standard könyvtárával a gyors fejlesztést igénylő területeken (szkriptek, adminisztráció, web) kedvelt nyelv lett.
  • Ruby: 1995-ben Japánban Yukihiro Matsumoto (Matz) létrehozta a Ruby nyelvet, amely objektumorientált és script nyelv egyben, a Perl és Smalltalk inspirációival. Ruby nyugaton a ’90-es években még kevéssé volt ismert, de Japánban népszerű lett, és a 2000-es években a Ruby on Rails keretrendszer hozta meg nemzetközi sikerét.

A „régi” nyelvek közül a C és C++ továbbra is dominált a rendszerszintű és alkalmazásfejlesztésben. A Microsoft például 1992-ben kiadta a Visual C++ fejlesztőkörnyezetet. Az object-oriented paradigm széles körű elfogadását jelzi, hogy 1990-ben az ISO/IEC szabványosította a C++ nyelvet, és a nagy szoftverek (operációs rendszerek GUI részei, irodai szoftvercsomagok stb.) gyakran C++-ban íródtak.

Az adatbázis-kezelés terén a SQL nyelv vált ipari szabvánnyá (1986-ban az ANSI, 1987-ben az ISO szabványosította, majd jöttek bővítések a ’90-es években). Az Oracle, IBM DB2, Sybase, Microsoft SQL Server mind SQL alapú relációs adatbázisokat kínált, és 1995-ben megjelent a MySQL is nyílt forráskódú alternatívaként.

A fejlesztői eszközök hihetetlen fejlődést mutattak. A 90-es évek volt a IDE-k virágkora: Microsoft Visual Studio (1997-től integrált csomagként), Borland Delphi (1995-ben jelent meg, a Turbo Pascal utóda, vizuális komponens alapú fejlesztésre koncentrálva), Borland C++ Builder (1997). Ezek az eszközök WYSIWYG jellegű grafikus felület-tervezőkkel és erőteljes debuggerekkel könnyítették a fejlesztést.

A forráskód-kezelő rendszerek nagyvállalati használatra is beértek: 1995-ben a Microsoft kiadta a Visual SourceSafe-et, 1990-ben megjelent a CVS nyílt forráskódú verziója. A 90-es évek végén már a változatkövetés és bug tracking rendszerek használata bevett gyakorlat lett a szoftverfejlesztésben.

A hálózatbiztonság és titkosítás is a programozási eszköztár részévé vált: 1995-ben publikálták a SSL protokollt (Secure Sockets Layer) a Netscape-nél, ami a webes forgalom titkosítását oldotta meg (elődje a mai TLS-nek). A nyilvános kulcsú titkosítás terén a PGP (Pretty Good Privacy) programot Phil Zimmermann 1991-ben tette közzé, hogy bárki használhasson erős titkosítást e-mailhez – ami miatt aztán évekig jogi csatákat vívott az amerikai hatóságokkal (akkoriban a titkosító algoritmusokat hadi exportcikknek minősítették). Végül a titkosítás széles körű használata győzött: 1999-ben az USA feloldotta a legszigorúbb exportkorlátozásokat, a böngészők és e-mail kliensek pedig natívan integrálták a titkosított protokollokat.

Alkalmazási területek

A 90-es évek messzemenően átalakították a mindennapi életet a számítógépes technológia alkalmazása révén. A világháló megszületése és elterjedése új alkalmazási területeket nyitott:

  • Kommunikáció: Az e-mail mellett megjelent a csevegés (chat) és az instant messaging. 1988-ban a IRC (Internet Relay Chat) protokoll lehetővé tette a valós idejű szöveges beszélgetéseket csoportokban. 1996-ban indult az ICQ, az első széles körben elterjedt instant üzenetküldő program, majd követte 1997-ben az AOL Instant Messenger és a Microsoft későbbi MSN Messenger (1999). Ezek valós időben kötötték össze a felhasználókat, a „szöveges beszélgetés” a neten mindennapossá vált. A 90-es évek végén a mobiltelefonok SMS üzenetküldése is robbanásszerűen népszerű lett, így a fiatal generációk gyakorlatilag folyamatos digitális kapcsolatban álltak egymással.
  • Információkeresés és portálok: A web növekedésével szükség lett keresőmotorokra és webkatalógusokra. Az első generációs keresők (Archie, Veronica – még Gopherhez; majd WebCrawler, Lycos, AltaVista – webhez) mind a ’90-es évek közepén indultak. 1994-ben Jerry Yang és David Filo létrehozták a Yahoo! kézzel szerkesztett webkatalógust, ami portállá fejlődött. 1995-re a Yahoo, Excite, Lycos, Infoseek, AltaVista mind versengtek a weben információt keresők kegyeiért. A Google 1998-as indulásával a hatékonyság sokszorosára nőtt (PageRank alapú találatrendezés), és gyorsan a vezető keresővé vált. Ezzel új iparág, az SEO (Search Engine Optimization) is született, mert a cégek felismerték, milyen fontos, hogy weblapjaik előkelő helyen szerepeljenek a keresőkben.
  • Elektronikus kereskedelem: A 90-es évek közepén megalakultak az első dot-com cégek, amelyek az internetet kereskedelmi célra használták. 1994-ben Jeff Bezos megalapította az Amazon.com-ot könyvárusként – mára globális e-kereskedelmi óriás. 1995-ben Pierre Omidyar útjára indította az eBay online piacteret, amely lehetővé tette bárkinek, hogy aukciókon értékesítsen bármit világszerte. 1999-ben a kínai Jack Ma megalapította az Alibaba B2B portált. Ezen pionírok által az e-kereskedelem bebizonyította életképességét: az 1998-as karácsonyi szezonban az Amazon hatalmas forgalmat bonyolított, ezzel beírva az internetet a kiskereskedelem történetébe. Ugyancsak 90-es évek végi jelenség a dot-com boom – internetes startup vállalatok százai alakultak, a tőzsde eufóriával reagált (NASDAQ index szárnyalt 1995-2000 között). Olyan cégek születtek ebben az időben, mint a Paypal (1998 – online fizetés), a Napster (1999 – zene-megosztó, ami a zeneiparnak hívta fel a figyelmét a digitális terjesztésre), a Google (1998).
  • Szórakoztatás és média: A 90-es évek végére a digitális tartalomfogyasztás előfutárai már léteztek. 1996-ban megjelent a DVD, ami 2000-re kezdte leváltani a VHS kazettákat. A számítógépek CD-meghajtói révén a zenehallgatás és később a CD-írók révén a zene másolása, CD-írás széles körben elterjedt (és aggasztotta a kiadókat). 1999-ben a Napster elhozta az MP3 fájlmegosztás lázát – ugyan jogi okokból 2001-re be is zárták, de Pandora szelencéje kinyílt: a peer-to-peer (P2P) fájlmegosztás és a digitális zene kora elkezdődött. A videojáték-ipar is hatalmas üzletté vált: 1991-ben a Super Nintendo hódított, 1994-ben kijött a Sony PlayStation, ami CD-alapú játékkonzolként új generációt nyitott (1999-re a PlayStation eladásai meghaladták a 100 milliót). 1998-ban jelent meg a Pokémon jelenség (GameBoy játék és anime, ami világszerte őrületet okozott). A PC-s játékok is virágoztak: 1993-ban a Doom és 1996-ban a Quake lerakta az online multiplayer FPS alapjait, 1998-ban a StarCraft és Half-Life új műfaji csúcsokat döntött. Az e-sport fogalma megszületett (1997 Red Annihilation Quake bajnokság, 1998 StarCraft versenyek Dél-Koreában).
  • Film és animáció: 1995-ben a Pixar kiadta a Toy Story-t, a világ első teljes egészében számítógéppel animált egészestés filmjét, bizonyítva, hogy a CGI képes érzelmes, élvezetes mozit alkotni – a film hatalmas kasszasiker lett. Ettől kezdve a digitális animáció fontos ága lett a filmgyártásnak, és a kézzel rajzolt animáció lassan visszaszorult. A speciális effektusok terén is a 90-es évek forradalmat hoztak: 1991-ben a Terminátor 2 folyékony fém T-1000 karaktere (Industrial Light & Magic CGI-jával) új mércét állított, 1993-ban a Jurassic Park dinoszauruszai számítógépes animációval keltek életre, 1999-ben a Mátrix film bullet time effektje és a Star Wars előzménytrilógia (I. rész) 3D karakterei (Jar Jar Binks) mutatták, hogy a CGI szinte mindent lehetővé tesz a filmvásznon.

A tudomány és technika terén is a számítógépek immár nélkülözhetetlenné váltak. A 90-es években a szuperszámítógépek listáján Japán és az USA versengett: 1993-ban indult a TOP500 lista, melynek élén sokáig az amerikai Intel Paragon, majd az ASCI Red állt, de 1996-ban a japán NEC Earth Simulator is csúcsközelben volt. A tudományos számítások (időjárási modell, kozmológia, anyagtudomány) mind HPC rendszereken futottak. 1997-ben az IBM Deep Blue számítógép sakkozásban legyőzte Garri Kaszparov világbajnokot – ezzel beteljesítve a fél évszázados kihívást és sokak számára bizonyítva a számítógépek „intelligenciáját” a szűk területen. A biológiában 1990-ben indult a Humán Genom Projekt, amely gigászi mennyiségű DNS-szekvencia adatait csak komoly számítógépes erővel tudta feldolgozni – 2000-re elkészültek az emberi genom első változatával. Az internet pedig a tudományos együttműködést is meggyorsította: megjelentek az elektronikus folyóiratok, e-print szerverek (pl. arXiv 1991-től) és a tudósok e-mailen, weben keresztül osztották meg eredményeiket, felgyorsítva a kutatás ütemét.

Fontos idézetek és koncepciók

A 90-es évek tele volt optimista és pesszimista jóslatokkal a digitalizációval kapcsolatban. Bill Gates 1995-ben adta ki „The Road Ahead” című könyvét, amelyben vizionálta a „mindenhol jelenlévő számítástechnika” (pervasive computing) jövőjét és a „műsorszórás és számítástechnika konvergenciáját”. Nicholas Negroponte 1995-ös „Being Digital” könyvében bevezette a „from atoms to bits” koncepciót, miszerint a fizikai termékek (atomok) digitális formába (bitek) alakulása alapvetően változtat meg iparágakat (zenét, filmet, könyvkiadást). E jóslatok határozottan igaznak bizonyultak.

Larry Page és Sergey Brin (a Google alapítók) mondása 1998-ból: „A tökéletes keresőmotor megértené pontosan, mit gondolsz, és pontosan azt adná, amit akarsz”. Ez a hitvallás vezette a Google fejlesztéseit (PageRank algoritmus stb.), és előre vetíti a későbbi mesterséges intelligenciával megtámogatott keresést, ami mára kezd valósággá válni.

„dot-com boom”: E kifejezést a 90-es évek végén kezdték használni a technológiai tőzsdei buborékra utalva. Az akkor szállóigévé vált mondás „Get Big Fast” (Növekedj nagyra, gyorsan) Jeff Bezos stratégiája volt az Amazonnál, de sok dot-com cég követte: a piaci részesedést fontosabbnak tartották a profitnál, bízva abban, hogy a győztes mindent visz. Ez a koncepció vegyes eredményekhez vezetett: sok cég összeomlott a dot-com lufi kipukkanásakor (2000-2001), de akik túlélték (Amazon, eBay, Google), valóban dominánssá váltak.

1999, Y2K: A ’90-es évek végén a legnagyobb nyilvános figyelmet kapott informatikai téma az Y2K-probléma volt. Sok régi szoftverben és adatbázisban ugyanis csak két számjeggyel tárolták az évszámot, így 2000-re átfordulva potenciálisan hibásan értelmezhették volna (1900 vagy 2000). Az egész világon nagy erőkkel fogtak neki a rendszerek Y2K kompatibilissé tételének. „Y2K compliant” és „Y2K bug” lett a kifejezés, amit a laikus közönség is megtanult. Végül a hatalmas összefogásnak hála 2000. január 1-jén nem történtek nagyobb katasztrófák – utólag egyesek túlzott hisztériának tartották az egészet, pedig inkább arról volt szó, hogy a megelőző munka meghozta gyümölcsét.

„Információs szupersztráda”: Ezt a kifejezést Al Gore amerikai szenátor (későbbi alelnök) népszerűsítette a ’90-es évek elején a globális szélessávú hálózatok víziójára. Az “Information Superhighway” metafora segített a nyilvánossággal megértetni az internet jelentőségét, és politikai támogatást gyűjteni a távközlési infrastruktúra fejlesztéséhez.

GNU GPL és a „szabad szoftver”: Richard Stallman híres mondása „A szabad szoftver nem (csak) azt jelenti, hogy ingyenes (free as in free beer), hanem hogy szabad, mint a szólásszabadság (free as in free speech)”. Ez a 90-es évek során terjedt el, mert sok félreértés adódott a „free software” kifejezés miatt. Emellett Stallman a „copyleft” fogalmát is megalkotta – szójáték a copyrighttal, azokra a licencekre utalva, amelyek biztosítják a szabadságjogok továbböröklődését.

Nyílt problémák és versenyek

A 90-es évek végére, bár rengeteg kérdést megoldottak, számtalan új nyílt probléma merült fel, amelyek a következő évtizedeket formálták.

Az internet szabályozása és biztonsága nyitott problémaként jelent meg. A dot-com boom idején felmerült a netes kereskedelem szabályozása (pl. internetes adózás kérdése), az online tartalmak (pl. szerzői jogvédelem Napster ügy kapcsán), és a kibertérben elkövetett bűncselekmények (hackelés, vírusok, csalások) elleni fellépés. 1998-ban elfogadták az USA-ban a Digital Millennium Copyright Act (DMCA) törvényt, ami az online szerzői jogi védelem sarokköve lett, bár sok vita övezte (a hackelés elleni részei miatt is). 1999-ben történt az egyik első nagy DDoS támadás (az eBay, Amazon, Yahoo ellen 2000 elején, egy MafiaBoy nicknevű fiatal által), ami ráirányította a figyelmet a hálózat sebezhetőségére. A biztonság nyitott gond maradt: 1998-ban a CIH/Chernobyl vírus sok kárt okozott, 1999-ben pedig a Melissa számítógépes vírus e-mailek tömeges küldésével terjedt és zavart keltett. Ezek mind előrevetítették a 2000-es évek internetes biztonsági kihívásait (vírusjárványok, adathalászat, hacker csoportok).

A szélessávú internet igénye is nyitott kérdés volt: a 90-es évek végén a legtöbb felhasználó még betárcsázós (dial-up) modemmel kapcsolódott (33.6k, majd 56k), ami szűkös sávszélt adott. Bár már létezett DSL technológia (az első ADSL szabvány 1998-ban), ennek kiépítése a telefontársaságok részéről csak most indult. Nyitott kérdés volt, mennyire gyorsan tudnak az infrastruktúrák lépést tartani az egyre sávszélesség-éhesebb alkalmazásokkal (pl. Napster). Hasonlóképp a vezeték nélküli hálózatok: az első Wi-Fi szabvány, az IEEE 802.11b 1999-ben jelent meg, de még csak 11 Mbit/s-el. A wifi, majd a mobil internet (GPRS, később 3G) a 2000-es évek témája lett, de magja a 90-es évek végén vetődött el.

A mobil számítástechnika nyitottan hagyta, ki és hogyan integrálja a telekommunikációt a számítástechnikával. A 90-es évek végén a mobiltelefonok már digitális GSM hálózatokon terjedtek (SMS-sel, 1998-tól WAP böngészőkkel kísérleteztek, sikertelenül), a PDA-k pedig külön eszközként léteztek. A konvergencia – okostelefon, mobilinternet – még gyerekcipőben járt (bár 1999-ben a Japán NTT DoCoMo i-Mode szolgáltatása már mobilon netezést kínált). Nyitott kérdés maradt, hogy egyesül-e a kézben tartott telefon és a kézben tartott számítógép – a válasz a 2000-es években az iPhone és Android formájában jött.

A dot-com buborék kipukkanása 2000 körül nyitva hagyta, mely internetes cégek élik túl, és milyen üzleti modellel lesz fenntartható egy online vállalkozás. 1999-2000-ben sok cég a „szemgolyó” (látogatottság) alapján értékelte magát, a profitra kevés fókuszt helyezve. A részvénypiac 2000 tavaszán bedőlt, sok cég csődbe ment. Azonban a túlélők (Amazon, eBay, Yahoo, és nem sokkal később a Google) bizonyították, hogy az internetes gazdaság létező dolog. A nyitott kérdés az volt, hogyan lehet fenntartható bevételt generálni online szolgáltatásokból – erre a késő 2000-es években a hirdetés-alapú modellek (Google AdWords 2000-ben, később Web 2.0, közösségi média monetizáció) adtak választ.

A magánélet védelme és kriptográfia szabadsága is kiélezett lett. 1991-ben, amikor a PGP kijött, az USA hatóságai vizsgálatot indítottak ellene, de a nyilvánosság nyomása miatt ejtették. 1993-ban az amerikai kormány egy „Clipper chip” nevű, lehallgathatóságot biztosító titkosító csip standardot javasolt, ám ez erős ellenállásba ütközött a szakmai és civil jogi szervezetek részéről, és végül megbukott. 1998-ban a „természetes szövetségesek” csoport (EFF stb.) kivívta, hogy a kormány enyhítse a titkosítás exportkorlátozását. Mégis, a magánszféra vs. biztonság vs. üzleti érdekek közti egyensúly máig nyitott problémákat eredményez (lásd: cookie-k és adatvédelem, 1999-ben az EU először adott ki irányelvet a személyes adatok védelméről; spam e-mailek – a világ első anti-spam törvényei 2003-ban jöttek). A 90-es évek végén a spam már komoly gond volt (a teljes e-mail forgalom jelentős része kéretlen reklám volt), de hatékony megoldás még nem létezett rá.

Összegzésképpen a 90-es évek a digitális forradalom kiteljesedését hozta, és átvezette a társadalmat az új évezredbe, ahol a számítástechnika és internet a gazdaság, kultúra és mindennapi élet alapinfrastruktúrájává vált. A megválaszolatlan kérdések és új kihívások pedig megalapozták a következő évtizedek technológiai fejlődését és vitáit.


Az ezredforduló utáni évtizedekben a számítástechnika drámai fejlődésen ment keresztül, amely gyökeresen átalakította a mindennapi életet és a gazdaságot. A 2000-es évek elejét a dotkom lufi kipukkadása jellemezte, amely számos internetes startup bukásához vezetett. Ugyanakkor az internet és a világháló tovább terjedt, és olyan online óriások erősödtek meg, mint az Amazon és az eBay, amelyek sikeresen vészelték át a piaci átrendeződést.

A következő évtizedekben az információs technológia egyre inkább behálózta a társadalmat: megjelentek az okostelefonok, közösségi hálózatok és felhőszolgáltatások, miközben a számítógépek teljesítménye és az adatok mennyisége exponenciálisan nőtt. A 2010-es évekre a mobil eszközök váltak elsődleges számítástechnikai platformmá, a mesterséges intelligencia pedig kézzelfogható eredményeket kezdett felmutatni a mindennapokban. A 2020-as évekre a számítástechnika az élet szinte minden területén kulcsszerepet játszik – a járványhelyzet felgyorsította a digitális átállást, az AI pedig soha nem látott képességekkel jelentkezett. Az alábbiakban évtizedenként áttekintjük a számítástechnika történetének főbb fejleményeit 2000 után, tematikus bontásban, bemutatva a technológiai újításokat és azok társadalmi hatásait.

2000-es évek

Mesterséges intelligencia

Bár a mesterséges intelligencia forradalma csak a következő évtizedekben bontakozott ki, a 2000-es években is történtek fontos előrelépések ezen a téren. Az MI ekkor főként kutatási terület maradt, de bizonyos feladatokban már ekkor kimagasló teljesítményt nyújtott. Például 2005-ben egy önvezető autó (Stanley, a Stanford Egyetem járműve) első ízben teljesített sikeresen egy közel 212 km hosszú sivatagi terepversenyt a DARPA Grand Challenge keretében. Az évtized során fejlődtek a gépi tanulási algoritmusok és a robotika is – többek között ilyen technológiák tették lehetővé az önvezető járművek kísérleteit. A korszak kutatásai megalapozták a későbbi ugrásszerű eredményeket, amelyek a 2010-es években váltak széles körben ismertté.

Hardver

A 2000-es években a számítástechnikai hardver teljesítménye tovább nőtt, bár az évtized végére a hagyományos ütem (a Moore-törvény) lassulni kezdett, és előtérbe került a párhuzamos feldolgozás. 2000-ben jelentek meg az első 1 GHz órajelű processzorok (az AMD Athlon és a Pentium III). A számítógépes architektúrák ekkor tértek át fokozatosan a 64 bites címzésre: az AMD 2003-ban piacra dobta az első széles körben elérhető 64 bites PC-processzort (Athlon 64). A magas órajel miatti hőtermelés korlátai miatt a gyártók a többmagos processzorok felé fordultak: 2005-ben az Intel és az AMD egyaránt kiadták első kétmagos processzoraikat (Pentium D, ill. Athlon 64 X2). Fontos iparági váltás volt, hogy az Apple 2005-ben bejelentette: PowerPC helyett Intel processzorokra vált a Mac számítógépeiben; 2006-ban megjelentek az első Intel-alapú Macek is (például a MacBook Pro). A csúcskategóriás számítógépek terén új rekordok születtek: 2000-ben az IBM ASCI White szuperszámítógép 12,3 billió műveletet végzett másodpercenként, ezzel a világ leggyorsabbja lett, az évtized végére pedig az első petaflop (10^15 művelet/s) sebességű rendszer is üzembe állt.

A grafikus hardver szintén ugrásszerűen fejlődött. 2004-ben az NVIDIA GeForce 6800 grafikus chip több mint kétszeresére növelte az előző generáció teljesítményét, megközelítve a filmes minőségű, valós idejű megjelenítést. A nagy felbontású optikai adathordozók versenyében a Blu-ray diadalmaskodott a HD DVD felett 2008-ban, ipari szabvánnyá válva.

A személyi számítógépek hardvere diverzifikálódott ebben az évtizedben. A hordozható PC-k (laptopok) egyre elterjedtebbé váltak, megjelentek a kisméretű, olcsó netbookok is (ilyen volt a 2007-ben bemutatott Asus Eee PC mini-laptop). A videojáték-konzolok új generációi jelentek meg, amelyek addig példa nélküli számítási teljesítménnyel és grafikával érkeztek: a Sony PlayStation 2 (2000), a Nintendo GameCube (2001) és a Microsoft Xbox (2001), majd az évtized közepén az Xbox 360 (2005), a PlayStation 3 és a Nintendo Wii (mindkettő 2006). Közben a mobiltelefonok is egyre fejlettebbé váltak: megjelentek az első okostelefonok. 2000-ben dobták piacra az első, korlátozott internetképes telefont (Ericsson R380, Symbian operációs rendszerrel), 2002-ben pedig az első BlackBerry okostelefont, mely az üzleti e-mailezésben újított. 2007-ben az Apple bemutatta az első iPhone-t, az érintőképernyős, alkalmazásközpontú okostelefont, amely új irányt szabott a mobiltelefon-iparágnak. 2008-ban pedig megjelent az első Android rendszerű telefon is (HTC Dream), ezzel kialakult a következő évtizedeket meghatározó két domináns mobilplatform.

Operációs rendszerek

A 2000-es években a főbb asztali operációs rendszerek között továbbra is a Microsoft Windows dominált. 2001-ben jelent meg a Windows XP, amely egységes, megbízható NT-alapú rendszermagot hozott a fogyasztói piacra, és az évtized egyik legnépszerűbb operációs rendszerévé vált. A Windows Vista (2007) az elődjét öt évvel követően került kiadásra, jelentős felhasználói felület-változásokkal, de vegyes fogadtatással. Ezt a Windows 7 követte 2009-ben, amely a Vista hiányosságait orvosolta, és stabil, kedvelt rendszerré vált. Az Apple eközben 2001-ben kiadta a Mac OS X-et (10.0), egy Unix-alapokra épített operációs rendszert, amely leváltotta a korábbi “klasszikus” Mac OS-t. A macOS (OS X) új funkciókat és stabilitást hozott a Macintosh gépekre; az évtized során olyan verziók jelentek meg, mint a Tiger (10.4, 2005) és a Leopard (10.5, 2007), majd 2009-ben a Snow Leopard (10.6) további optimalizációkkal. A nyílt forráskódú operációs rendszerek is erősödtek: a Linux kernel 2.6-os főverziója 2003-ban jelent meg, számos fejlesztéssel, és 2004-ben elérhetővé vált az első Ubuntu Linux disztribúció, mely barátságos felhasználói élményével új közönséget vonzott. A Linux a szerverek és különféle beágyazott rendszerek terén egyre nagyobb teret nyert, bár desktop környezetben részesedése korlátozott maradt.

A mobil operációs rendszerek ekkoriban születtek meg. A Symbian OS vált az első okostelefonok de facto platformjává (ezt futotta például az Ericsson R380, az első „okostelefon” 2000-ben), és számos Nokia telefonon is ez működött. 2007-ben az Apple az iPhone-nal együtt bemutatta az iPhone OS-t (későbbi nevén iOS), amely érintőképernyős, alkalmazásközpontú mobil operációs rendszerként forradalmasította a telefonok képességeit. 2008-ban a Google kiadta az Android rendszer első verzióját, valamint megjelent az első Android-alapú okostelefon is (HTC Dream). Ezek az új mobil operációs rendszerek lefektették a modern okostelefon-ökoszisztémák alapjait, és a következő években uralkodó platformokká váltak a mobil piacon.

Alkalmazások és internetes szolgáltatások

Az internet terjedésével a 2000-es években új alkalmazások és online szolgáltatások váltak széles körben elérhetővé. 2001-ben indult útjára a Wikipedia, egy közösségi szerkesztésű online enciklopédia, amely alapjaiban változtatta meg az ismeretterjesztést. Ugyanebben az évben jelent meg az Apple iTunes szoftvere is, amely az online zenevásárlás és -lejátszás úttörője volt, megágyazva a digitális zenei disztribúció robbanásszerű növekedésének. Az elektronikus levelezésben a Google 2004-ben indította el a Gmail szolgáltatást, mely 1 GB-os ingyenes tárhelyével forradalmat hozott az e-mailben. A 2000-es évek közepére elterjedtek az azonnali üzenetküldők és VoIP alkalmazások is (mint a 2003-ban megjelent Skype), amelyek új kommunikációs lehetőségeket nyitottak.

A közösségi hálózatok és a felhasználók által létrehozott tartalmak korszaka is ekkor kezdődött. 2003-ban indult a MySpace közösségi portál, amely hamar népszerűvé vált a fiatalok körében, de a 2004-ben alapított Facebook dinamikus terjeszkedésével átvette a vezető szerepet, 2009-re az Egyesült Államokban már megelőzte a MySpace-t a felhasználók számában. 2005-ben elindult a YouTube videómegosztó oldal, lehetővé téve bárki számára videók globális közreadását; a szolgáltatás sikerét jelzi, hogy a Google már 2006-ban felvásárolta. 2006-ban jelent meg a Twitter, egy új mikroblogging platform, amely 140 karakteres üzenetekben tette lehetővé hírek és információk azonnali megosztását. Ezek az alkalmazások alapjaiban formálták át a közösségi interakciókat és a médiafogyasztást.

A webböngészők és internetes keresők területén is verseny bontakozott ki ebben az évtizedben. 2004-ben jelent meg a Mozilla Firefox 1.0, az első sikeres nyílt forráskódú böngésző, mely újraélesztette a böngészők közti versenyt és az Internet Explorer egyeduralmát kezdte megtörni. 2008-ban a Google kiadta a Chrome böngészőt, amely gyorsaságával és egyszerűségével hamar nagy piaci részesedést szerzett, néhány éven belül a világ legelterjedtebb böngészőjévé válva. Közben a keresőszolgáltatások közül a Google (1998-ban indult) a 2000-es években vált dominánssá, háttérbe szorítva vetélytársait, és számos kiegészítő szolgáltatást (térkép, hírek, fordítás stb.) indított. Összességében a 2000-es évek alkalmazásai és online platformjai alapozták meg az információmegosztás, a digitális szórakozás és a közösségi média modern kultúráját.

Szoftverfejlesztés és nyílt forráskód

A 2000-es években a szoftverfejlesztés módszerei és közösségei is jelentősen átalakultak. 2001-ben közzétették az Agile Manifestót, amely az agilis szoftverfejlesztési elveket lefektetve forradalmasította a fejlesztési módszertanokat. Az agilis megközelítés – például a Scrum – egyre inkább felváltotta a hagyományos vízesés-modellt, nem csak az informatikában, hanem más iparágak projektmenedzsmentjében is. Ugyancsak ebben az időszakban erősödött meg a nyílt forráskódú szoftverek mozgalma. Számos szoftver vált hozzáférhetővé nyílt licenc alatt: például a Blender 3D modellező program forráskódját 2002-ben közösségi finanszírozás segítségével publikálták. A nyílt forráskód sikere látható volt a böngészőknél (Firefox), operációs rendszereknél (Linux) és sok egyéb területen. Ugyanakkor megjelentek a jogi viták is: 2003-ban a SCO pert indított az IBM ellen arra hivatkozva, hogy a Linux forráskódja jogvédett UNIX-kódot tartalmaz – ez a per évekig elhúzódott, ráirányítva a figyelmet az open source szoftverek licencelési kérdéseire.

A programozási technológiák terén a webalkalmazások és a szolgáltatás-orientált architektúrák térnyerése volt jellemző. Új szkriptnyelvek és keretrendszerek (például a PHP alapú tartalomkezelők, vagy a JavaScript AJAX technikája 2005-től) jelentek meg a dinamikus weboldalak kiszolgálására. A vállalati szoftverfejlesztésben a Java és a 2002-ben megjelent .NET platform (C# nyelvvel) dominánssá vált, míg a dinamikus nyelvek (Python, Ruby stb.) is egyre népszerűbbek lettek bizonyos feladatkörökben. A szoftverek terjedése és az internet összekapcsoltsága új biztonsági kihívásokat is hozott: a 2000-ben felbukkanó “ILOVEYOU” számítógépes féreg és a későbbi vírusjárványok milliószám fertőzték a PC-ket világszerte, ami előtérbe állította az IT-biztonság és antivírus megoldások fontosságát. Összességében a 2000-es évek megalapozták a modern szoftverfejlesztési ökoszisztémát, amelyben az agilis módszerek, a nyílt forráskód és az internetközpontú alkalmazások kulcsszerepet kapnak.

Közösségi hatás

A számítástechnika a 2000-es években a gazdaságra és a mindennapi életre is egyre nagyobb hatást gyakorolt. Az évtized elején lezajlott a sokak által rettegett Y2K („millennium bug”) probléma – a globális erőfeszítéseknek köszönhetően komolyabb üzemzavarok nélkül. Ugyanakkor 2000-ben kipukkadt a dotkom lufi, ami számos technológiai cég csődjét okozta és átmeneti megtorpanást jelentett az internetgazdaságban. A visszaesést azonban gyors növekedés követte: az évtized közepére az online iparágak megerősödtek, és új tech-óriások emelkedtek fel. A Google például a 2000-es években vált a világ vezető keresőjévé és online hirdetési vállalatává; az Amazon és az eBay forgalma az e-kereskedelem robbanásával sokszorosára nőtt. Az Apple a 2000-es években tért vissza a csúcsra az iPod (2001) és az iPhone (2007) sikere révén. 2008-ban a globális gazdasági válság ugyan minden ágazatot érintett, de az informatikai szektor a visszaesést viszonylag jól átvészelte, és az évtized végére a technológia ismét a gazdasági innováció motorjává vált.

A társadalomban is mélyreható változásokat indított el a technológia terjedése. Az internetpenetráció ugrásszerűen nőtt ebben az időszakban: 2000-ben a világ népességének alig néhány százaléka rendelkezett internet-hozzáféréssel, 2010-re ez az arány megközelítette a 30%-ot. A mindennapi kommunikáció átalakult: az e-mail, az SMS és az online chat a levelezés és telefonálás mellé zárkózott fel, a közösségi hálózatok (mint a MySpace és Facebook) pedig új fórumot adtak az ismerősökkel való kapcsolattartásra. A médiafogyasztás is változott – egyre többen olvastak híreket online, néztek videókat a YouTube-on, vagy hallgattak zenét digitális formában. Az „információs társadalom” fogalma ekkor vált kézzelfoghatóvá: soha korábban nem volt ennyi ember számára ennyire hozzáférhető a tudás és az információ. Ugyanakkor megjelentek az új kihívások is, például a digitális függőség első jelei, valamint a digitális szakadék a társadalom különböző rétegei és a világ régiói között – a gyors technológiai fejlődés nyertesei elsősorban a fejlett országok lettek, míg sok fejlődő térség lemaradása nőtt. Összességében a 2000-es évekre a számítástechnika olyan nélkülözhetetlen infrastruktúrává vált, mint az elektromosság: az élet szinte minden területére behatolt, megalapozva a 21. század digitális korszakát.

2010-es évek

Mesterséges intelligencia

A 2010-es években a mesterséges intelligencia terén korábban csak kutatási szinten létező technikák áttörtek a gyakorlati alkalmazásokba. 2011-ben az IBM Watson nevű rendszere megnyerte az amerikai Jeopardy! televíziós kvízjátékot, demonstrálva a gépi természetesnyelv-feldolgozás képességeit. 2012-ben a mély neurális hálózatok először értek el kiemelkedő eredményeket látásfelismerési feladatokban (pl. a ImageNet versenyben), ami elindította a “deep learning” forradalmat. Az évtized közepére az MI látványos eredményeket produkált a játékokban: 2016-ban a Google DeepMind által fejlesztett AlphaGo program legyőzte a világ egyik legjobb gojátékosát, Lee Sedolt, amely mérföldkőnek számított a gépi tanulásban. A mesterséges intelligenciát egyre több területen kezdték alkalmazni: az okostelefonokban megjelentek a személyi asszisztensek (Apple Siri, 2011; Amazon Alexa, 2014; Google Assistant, 2016), a gépi fordítás és beszédfelismerés minősége ugrásszerűen javult, és az önvezető autók fejlesztése is felgyorsult. A 2010-es évek végére az MI olyan képességeket mutatott (például képek automatikus felismerése, emberi szintű beszélgetés bizonyos területeken), amelyek előrevetítették a technológia még szélesebb körű alkalmazását a következő évtizedben.

Hardver

A 2010-es években a számítástechnikai eszközök minden korábbinál elterjedtebbé és sokoldalúbbá váltak. Az okostelefonok uralkodó platformmá nőtték ki magukat: az évtized elején az Apple iPhone és a Google Android alapú készülékek generációi gyors ütemben fejlődtek (nagyobb, nagyfelbontású érintőképernyők, erős többmagos mobilprocesszorok, egyre jobb kamerák). 2010-ben az Apple bemutatta az iPad táblagépet, új kategóriát teremtve a hordozható eszközök piacán. A PC-k hardverében is folytatódott a fejlődés: a processzorok magonkénti teljesítménye lassabb ütemben nőtt, de a magok száma tovább emelkedett, és megjelentek a sokmagos (8+ mag) CPU-k is a fogyasztói piacon (pl. 2017-től az AMD Ryzen széria). A grafikus processzorok (GPU-k) kulcsszerepet kaptak a párhuzamos számítási feladatokban, különösen a mesterséges intelligencia számításokban – az NVIDIA és az AMD egyre nagyobb és hatékonyabb GPU-kat dobott piacra. A félvezetőgyártás a 2010-es évek végére a 10 nm alatti csíkszélességet is elérte, bár a fizikai korlátok miatt a Moore-törvény üteme lassult.

Az évtized során számos új hardvertechnológia jelent meg. 2014-ben bemutatkozott a nyílt forrású RISC-V utasításkészlet-architektúra, amely lehetővé tette testreszabható processzorok fejlesztését. A memória és háttértár kapacitások nagyságrendekkel nőttek: 2010-re általánossá váltak a gigabájtos memóriák és több száz gigabájtos – később terabájtos – merevlemezek, valamint a félvezető alapú SSD-k is egyre inkább felváltották a hagyományos winchestereket (2016-ra megjelentek az első 10+ terabájtos meghajtók). A szuperszámítógépek terén Kína és az Egyesült Államok versengett az első helyért: 2011-ben átlépték a 10 petaflops határt, 2018-ra pedig már 200 petaflops feletti gépek vezették a ranglistát. 2019-ben a Google bejelentette, hogy kvantumszámítógépe elérte a „kvantumfölényt” egy specifikus feladatban, jelezve a kvantumszámítások terén elért előrelépést. Ezen innovációk révén a 2010-es évek végére a hardver lehetővé tette korábban elképzelhetetlen komplexitású számítások elvégzését, az eszközök pedig mindennapjaink részévé váltak (okosórák, fitnesz-trackerek, okoshangszórók formájában is).

Operációs rendszerek

A 2010-es években az operációs rendszerek terén a Microsoft, az Apple és a mobilplatformok fejlődése volt meghatározó. A Microsoft 2012-ben jelentette meg a radikálisan új felületű Windows 8-at, amely az érintőképernyős eszközökhöz igazodott, ám vegyes fogadtatásban részesült. 2015-ben kijött a Windows 10, amely visszahozott sok hagyományos elemet és egységes platformot kínált PC-kre és tabletekre egyaránt – a Microsoft ezt “szolgáltatásként” fejlesztette tovább folyamatos frissítésekkel. Az Apple macOS rendszere évente frissült: olyan verziók jelentek meg, mint a macOS Sierra, High Sierra, majd 2019-ben a macOS Catalina, amelyek fokozatos fejlesztésekkel bővítették az Apple ökoszisztémát. Külön fontos lépés volt, hogy az Apple 2011-ben bemutatta az iCloud szolgáltatást, integrálva az eszközök közti adat-szinkronizációt az OS-be.

Mobil fronton a Google Android és az Apple iOS dominanciája egyértelművé vált. Az Android számos verzión keresztül (Gingerbread-től a Pie-ig) fejlődött a 2010-es években, és nyílt forráskódú jellege miatt a világ legelterjedtebb operációs rendszerévé vált okostelefonokon. Az iOS közben megtartotta erős pozícióját a prémium szegmensben, évente megújuló verziókkal (pl. iOS 7 teljes dizájnváltása 2013-ban). A korábbi mobil OS-ek – mint a BlackBerry OS és a Windows Phone (2010-ben indult) – nem tudták tartani a lépést, a BlackBerry 2016-ra átállt Androidra, a Windows Phone pedig 2017-ben gyakorlatilag megszűnt. Az új eszközkategóriák (okosórák, okostévék, autós fedélzeti rendszerek) saját specializált operációs rendszerekkel jelentek meg (pl. Android Wear, Apple watchOS, Samsung Tizen), tovább szélesítve az OS-ek családját. Emellett a nyílt forrású Linux továbbra is kulcsszerepet játszott a szervereken és felhőszolgáltatásokban, a containerizáció (Docker) és az orchestration (Kubernetes) pedig újfajta “operációs rendszer-szintű” réteget adtak a felhő infrastruktúrához.

Alkalmazások és szolgáltatások

A 2010-es években az internetes alkalmazások és digitális szolgáltatások minden területen előretörtek. A közösségi média globálisan uralkodó kommunikációs platformmá vált: a Facebook felhasználóinak száma 2012-re átlépte az egymilliárdot, majd az évtized végére a 2 milliárdot is meghaladta, részben az olyan felvásárlások révén, mint az Instagram (2012) és a WhatsApp (2014). A Twitter a hírek és közéleti diskurzus fontos csatornájává vált világszerte. Új szereplők is megjelentek: 2011-ben indult a Snapchat, amely az eltűnő üzenetekkel új trendet teremtett, a fiatalabb generációk körében pedig a TikTok (2016-tól nemzetközileg) rövid videós platformja robbant be az évtized végén. A fejlődő világban – különösen Kínában – saját ökoszisztémák nőttek fel: a WeChat például egyetlen alkalmazásban egyesítette az üzenetküldést, közösségi médiát és fizetési szolgáltatásokat.

Az online médiafogyasztás is alapjaiban változott meg. A videó-streaming lett a szórakoztatás egyik fő formája: a Netflix átalakult DVD-kölcsönzőből globális streaming platformmá, saját tartalomgyártással, a YouTube pedig a legnagyobb nyilvános videóplatform maradt, ahol már milliárdos nézettségű videók születtek. A zeneiparban a streaming modellek (Spotify, Apple Music) váltak dominánssá, háttérbe szorítva a letöltést és a fizikai adathordozókat. Az okostelefonos alkalmazásboltok (Apple App Store, Google Play) több millió alkalmazást kínáltak – a mindennapi tevékenységek (ételrendelés, navigáció, bankolás, társkeresés stb.) egyre inkább mobilappokon keresztül zajlottak. Az ún. “megosztáson alapuló gazdaság” is a technológiai platformokra épült: az Uber és társai megreformálták a városi személyszállítást, az Airbnb pedig a szálláskiadást alakította át globálisan. Emellett az online játékok és e-sportok hatalmas iparággá fejlődtek (pl. a League of Legends és a Dota 2 nemzetközi bajnokságai). A 2010-es évek végére a digitális szolgáltatások az élet minden területén jelen voltak, a hagyományos ágazatok (kiskereskedelem, média, közlekedés, pénzügyek) működését is gyökeresen átalakítva.

Szoftverfejlesztés és infrastruktúra

A szoftveriparban a 2010-es évek kulcsszavai a „felhő” és a „big data” lettek. A vállalatok tömegesen tértek át a felhőalapú infrastruktúrákra – az Amazon Web Services, a Microsoft Azure és a Google Cloud Platform szolgáltatásai lehetővé tették, hogy rugalmasan, igény szerint skálázhatóan futtassák alkalmazásaikat a vállalatok. A fejlesztési és üzemeltetési folyamatok összeolvadtak a DevOps szemléletben, és elterjedtek a konténertechnológiák: a Docker (2013) konténerei és a Kubernetes (2014) orkesztrációs rendszere szabvánnyá váltak a felhős alkalmazások telepítésében. Az adatelemzés és gépi tanulás terén új eszközök jelentek meg: a Hadoop és Spark keretrendszerek lehetővé tették a hatalmas adathalmazok (big data) feldolgozását, míg a TensorFlow (2015) és más gépi tanulási könyvtárak révén a mesterséges intelligencia fejlesztése széles körben elterjedt. A programozási nyelvek között is volt mozgás: az Apple 2014-ben bemutatta a Swift nyelvet a biztonságosabb és modernebb iOS/macOS-fejlesztéshez, a Mozilla által fejlesztett Rust (stabil 2015-től) pedig a memória-biztonságot helyezte előtérbe a rendszerszoftverek terén. A JavaScript nyelv a Node.js platform (2009) és a front-end keretrendszerek révén full-stack fejlesztési eszközzé vált.

Az évtized során egyre hangsúlyosabb lett az informatikai biztonság. Számos nagy horderejű adatvesztés és kibertámadás történt: 2013-ban derült fény arra, hogy az amerikai NSA tömeges megfigyeléseket végzett az interneten (Edward Snowden kiszivárogtatásai), ami világszerte aggodalmat keltett a magánszféra védelmét illetően. 2017-ben a WannaCry zsarolóvírus világszerte számítógépek százezreit fertőzte meg, rávilágítva a sebezhető, frissítetlen rendszerek veszélyeire. 2018 elején nyilvánosságra kerültek a Meltdown és Spectre nevű hardver-sebezhetőségek, amelyek szinte minden modern processzort érintettek, és sürgős szoftveres javításokat követeltek a rendszerek védelme érdekében. A GDPR európai uniós adatvédelmi rendelet 2018-ban lépett életbe, szigorúbb szabályokat hozva a személyes adatok kezelésére. A szoftverfejlesztés és üzemeltetés világában mindezek hatására alapvető követelménnyé vált a biztonságos kódolás, a gyors frissítési képesség és a folyamatos monitorozás, miközben a fejlesztők soha nem látott eszköztárral dolgozhattak a felhő és az open source révén.

Közösségi hatás

A 2010-es években a digitális technológia hatása a társadalomra még nyilvánvalóbbá vált. A közösségi média nemcsak a személyes kapcsolattartást, hanem a politikát és a társadalmi mozgalmakat is befolyásolta: 2011-ben az Arab tavasz eseményei során a Facebookot és a Twittert a tüntetések szervezésére használták, míg a későbbi években is számos tiltakozás és kampány (pl. a #MeToo mozgalom 2017-ben) az online platformokon szerveződött. Ugyanakkor egyre nagyobb aggodalmat keltett a dezinformáció terjedése és az „echo chamber” jelenség – különösen a 2016-os amerikai elnökválasztás kapcsán merült fel a vád, hogy a közösségi oldalak elősegítik az álhírek terjedését. 2018-ban a Cambridge Analytica botrány rámutatott, hogy a Facebook felhasználói adatokat politikai célokra is fel lehet használni, ami globális vitát indított a személyes adatok védelméről. A kormányzati megfigyelés is a figyelem középpontjába került: Edward Snowden 2013-as leleplezései nyomán világossá vált, hogy a nemzetbiztonsági szervek kiterjedt elektronikus megfigyelést folytatnak. Mindezek hatására szigorúbb szabályozás született (az EU GDPR rendelete 2018-ban lépett életbe), és nőtt az igény az erősebb titkosítás és a magánszféra védelme iránt.

A mindennapi élet és kultúra is átalakult a 2010-es években a technológia által. Az okostelefon folyamatos jelenléte megváltoztatta a munka és a magánélet közötti határvonalat, sokan napi szinten órákat töltöttek a képernyők előtt. Megjelent a digitális függőség fogalma, valamint a technológia mentális egészségre gyakorolt hatásainak vizsgálata. Ugyanakkor a digitális gazdaság kényelmet és új lehetőségeket hozott: az online vásárlás (e-commerce) az egész világon elterjedt, a streaming és on-demand szolgáltatások testre szabták a médiafogyasztást, az okoseszközök (pl. fitnesszkarkötők) pedig az egészségtudatos életmód részévé váltak. A munka világában megjelent a távmunka és a szabadúszó gig-gazdaság a digitális platformok révén, bár ez felvetette a munkavállalói jogok és a munkahelyi biztonság kérdéseit. A világ internet-használóinak aránya az évtized végére már meghaladta az 50%-ot, de a digitális szakadék tovább élt: a vidéki és szegény térségek lemaradása még mindig kihívást jelentett. Összességében a 2010-es évekre a digitalizáció a társadalom alapvető szövetét is átszőtte – az információ, a kommunikáció és a gazdaság alapvetően online térbe helyeződött át, új előnyöket és új problémákat egyaránt szülve.

2020-as évek

Mesterséges intelligencia

A 2020-as évek elején a mesterséges intelligencia ugrásszerű fejlődése a széles nyilvánosság számára is nyilvánvalóvá vált. 2020-ban megjelent az OpenAI GPT-3 nyelvi modellje, amely addig soha nem látott minőségben volt képes összefüggő szövegeket generálni. 2022 végén hatalmas visszhangot váltott ki a ChatGPT nevű chatbot, amely a GPT-3.5 modellen alapult és párbeszédes formában nyújtott az emberihez közeli válaszokat – néhány hónap alatt több mint 100 millió felhasználó próbálta ki világszerte. 2023-ban az OpenAI bemutatta a még fejlettebb GPT-4 modellt, ami tovább fokozta az MI körüli érdeklődést. A generatív MI nemcsak szövegben, hanem a képi területen is áttörést ért el: 2022-ben nyilvánossá váltak olyan programok (DALL-E 2, Stable Diffusion, Midjourney), amelyek szöveges leírás alapján képesek magas minőségű képeket alkotni. Egy ilyen mesterségesen generált kép meg is nyert egy művészeti versenyt 2022-ben, ami vitát indított a digitális művészet jövőjéről. Ugyanebben az évben a DeepMind AlphaFold rendszere előrejelezte gyakorlatilag az összes ismert fehérje térbeli szerkezetét, óriási erőforrást teremtve a biológiában.

Az MI alkalmazásai a 2020-as években már mindennapossá váltak: ajánlórendszerek szűrik a közösségi média és streaming tartalmakat, az okostelefonok kamerái MI-algoritmusokkal javítják a fotókat, a fordítóprogramok valós időben működnek, és a navigációs alkalmazások valós idejű forgalmi adatokat használnak fel. Ugyanakkor az MI fejlődése egyre több aggodalmat is felvetett. A társadalomban vita bontakozott ki arról, hogy a mesterséges intelligencia miként hat a munkaerőpiacra (számos rutinfeladat automatizálhatóvá vált), az oktatásra (a chatbotok képesek megírni esszéket a diákok helyett) és az információ hitelességére (MI által generált álhírek és deepfake videók jelenhetnek meg). 2023-ban több szakértő nyílt levélben figyelmeztetett az esetleges túlságosan fejlett MI kockázataira, és szabályozás kidolgozását sürgette. Mindezek alapján a 2020-as évekre a mesterséges intelligencia fejlődése egyszerre kínált páratlan lehetőségeket és új kihívásokat, amelyek megoldása a következő évek feladata lesz.

Hardver

A 2020-as évek elején a számítástechnikai hardvert elsősorban a globális események és a specializált igények formálták. A 2020-ban kitört COVID-19 világjárvány egyszerre növelte a digitális eszközök iránti keresletet és akadozást okozott az ellátási láncokban, ami súlyos félvezető-hiányhoz vezetett 2021-ben – ez rávilágított a modern gazdaság függésére a chipgyártástól. Időközben a személyi számítógépek piacán fontos váltás történt: az Apple 2020-ban piacra dobta első saját tervezésű, ARM-alapú számítógépes chipjét (Apple M1), amely kiemelkedő teljesítményt nyújtott alacsony fogyasztás mellett, jelezve az ARM architektúra életképességét a PC-ken is. A PC-processzorok terén az AMD és az Intel versenye folytatódott; az Intel 2021-ben mutatta be a hibrid magstruktúrájú Alder Lake architektúrát, míg az AMD a Zen 3 és Zen 4 processzorokkal erősítette pozícióját. A grafikus kártyák piacát nagyban befolyásolta a kriptovaluta-bányászat fellendülése, majd visszaesése: 2020-21-ben az NVIDIA és AMD GPU-k hiánycikké váltak a bányászok kereslete miatt, 2022-re azonban a kriptopiac összeomlása után normalizálódott a kínálat.

A telekommunikációban a 2020-as évek elején széles körben bevezették az 5G mobilhálózatokat, lehetővé téve a gigabites sebességű vezeték nélküli adatátvitelt és új alkalmazásokat (IoT, önvezető autók kommunikációja). Az IoT-eszközök száma exponenciálisan nőtt: okosotthon-eszközök, szenzorhálózatok, ipari IoT rendszerek terjedtek el, amelyek rengeteg adatot gyűjtenek valós időben. A szuperszámítógépek versenyében mérföldkőhöz érkeztünk: 2022-ben az amerikai Frontier rendszer lett az első, amely átlépte az exaflops (10^18 művelet/másodperc) teljesítményt, ezzel új korszakot nyitva a nagy teljesítményű számításban. A kvantumszámítógépek is tovább fejlődtek: a qubit-ek száma egyre nő a kísérleti rendszerekben (2021-ben az IBM egy 127 qubit-es processzort jelentett be), bár a kvantumeszközök gyakorlati alkalmazása még korlátozott. Az évtized elején megjelentek az első önvezető taxik kísérleti jelleggel egyes városokban, illetve a magánűrhajózás fellendülése (SpaceX, Blue Origin) is kihasználta a fejlett számítógépes rendszereket. Összességében a hardver terén a 2020-as években a teljesítmény növelése mellett a megbízhatóság és az ellátási stabilitás kérdései is előtérbe kerültek, miközben egyre több speciális célhardver (MI-gyorsítók, kvantumchipek) jelent meg a hagyományos CPU/GPU páros kiegészítéseként.

Operációs rendszerek

A 2020-as évek elején az operációs rendszerek terén a változások inkább evolúciósak, semmint forradalmiak voltak. A Microsoft 2021-ben adta ki a Windows 11-et, amely modernizált felhasználói felületet hozott és magasabb hardverkövetelményeket támasztott (például csak biztonsági chipet tartalmazó PC-ken támogatott) – ezzel a cég gyakorlatilag lezárta a Windows 10 „örök Windows” korszakát. Az Apple folytatta éves macOS frissítési ciklusát, immár natív támogatással az új ARM alapú Apple Silicon chipekre; a macOS Big Sur (2020) és utódai már optimalizáltan futottak az M1/M2 chipeken. A desktop Linux továbbra is egy stabil, de kisebbségi szereplő maradt az asztali gépeken, viszont a felhőben és szervereken domináns pozícióban volt.

A mobil operációs rendszerek – Android és iOS – uralma megkérdőjelezhetetlen maradt. Az Android 2020-as években kiadott verziói (11, 12, 13) tovább finomították a rendszer teljesítményét és biztonságát, míg az iOS is évente frissült új funkciókkal (pl. widgetek, értesítési reform). A Huawei amerikai szankciók miatti kiszorulása nyomán a cég 2021-ben saját HarmonyOS rendszerét kezdte el fejleszteni, de ez elsősorban Kínában terjedt. Az okoseszközök (óra, TV, autó) világában az Android és Linux alapú beágyazott rendszerek domináltak. Az operációs rendszerek frontján tehát a 2020-as évek a konvergencia jegyében teltek: minden platform igyekezett hasonló felhasználói élményt nyújtani, széles ökoszisztémákkal (alkalmazásboltok, felhő-szolgáltatások) kiegészítve. A virtualizáció és a konténerezés továbbra is kulcsfontosságú volt a szerveroldalon, de a végfelhasználó ezt már nagyrészt láthatatlan felhős háttérszolgáltatásként érzékelte.

Alkalmazások és szolgáltatások

A 2020-as évek elejét alapvetően meghatározta a COVID-19 járvány, ami felgyorsította számos digitális szolgáltatás térnyerését. 2020-ban és 2021-ben emberek százmilliói kényszerültek otthoni munkavégzésre és tanulásra, ami az olyan videokonferencia-platformok sikeréhez vezetett, mint a Zoom, a Microsoft Teams vagy a Google Meet. A távmunka és hibrid munkavégzés a pandémia lecsengése után is sok helyen megmaradt, így ezek az alkalmazások hosszú távon is beépültek a vállalati működésbe. Az online kereskedelem szintén rekord növekedést ért el a lezárások alatt, az élelmiszer-házhozszállító és e-kereskedelmi szolgáltatások (pl. Instacart, Amazon) kritikus infrastruktúraként működtek.

A közösségi média ökoszisztémája is változott: a TikTok 2020-ra a világ legletöltöttebb alkalmazásává vált, és meghonosította a rövid, pörgős videók trendjét, amelyre a konkurensek (Instagram Reels, YouTube Shorts) is reagáltak. A Facebook (Meta) 2021-ben nagy lendülettel hirdette meg a “metaverzum” vízióját – át is nevezte magát Meta Platforms-nak –, és erőforrásokat fektetett a virtuális valóság alapú közösségi terek fejlesztésébe, de a metaverzum koncepció egyelőre nem váltotta be a hozzá fűzött reményeket. Eközben a digitális szórakoztatás más formái virágoztak: a videojáték-ipar bevétele meghaladta a filmiparét, az e-sport események és streamingek (pl. Twitch) hatalmas közönséget vonzottak. A hagyományos mozik és tévézés népszerűsége csökkent, miközben a streaming-szolgáltatók (Netflix, Disney+, HBO Max stb.) egymással versengve gyártották az exkluzív tartalmakat a nézők megtartásáért.

Az évtized elején lezajlott egy kriptovaluta- és blokklánc-őrület is. 2021-ben a Bitcoin árfolyama soha nem látott magasságba emelkedett, és sorra jelentek meg a decentralizált pénzügyi (DeFi) alkalmazások, valamint a NFT-k (nem helyettesíthető tokenek) a digitális műtárgypiacon. 2022-re azonban a kriptovaluta-piac összeomlott: több nagy szolgáltató (pl. FTX tőzsde) csődbe ment, a tokenek értéke zuhant, és sok befektető veszteségeket szenvedett el. Mindez valamelyest hűtötte a “Web3” néven emlegetett, blokklánc-alapú internet vízióját. Ugyanakkor a digitális fizetési megoldások (mobilfizetés, fintech alkalmazások) mainstreammé váltak: a járvány is hozzájárult a készpénzmentes tranzakciók terjedéséhez. Összességében a 2020-as évek első fele az alkalmazások terén a virtuális kapcsolattartás, a streaming és a digitális gazdaság további térnyerését hozta, miközben új hype-ok születtek és buktak el a tech világ gyors ciklusában.

Szoftverfejlesztés és infrastruktúra

A 2020-as évek elején a szoftveres infrastruktúra további felhősödése és automatizálása zajlott. A nagy felhőszolgáltatók (AWS, Azure, Google Cloud) piaci részesedése tovább nőtt, bár egyre több szervezet törekedett multi-cloud vagy hibrid megoldásokra az elosztott kockázat érdekében. Az alkalmazások üzemeltetésében az ún. „felhő-natív” megközelítés vált általánossá: konténerekben és mikroszolgáltatásokban gondolkodtak a fejlesztők, és az infrastruktúra-szolgáltatások (Infrastructure as Code) automatizáltan, kóddal vezérelve működtek. A 2020-as évek elején a fejlesztői eszköztárba belépett a mesterséges intelligencia is: 2021-ben elindult a GitHub Copilot, amely képes kódrészleteket javasolni a fejlesztőknek a mesterséges intelligencia segítségével, 2022–2023-ban pedig a ChatGPT-hez hasonló modelleket már komplex programkód generálására is használták. Ez felgyorsíthatja a fejlesztést, de felveti a kérdést a kódminőség és a szerzői jog kapcsán is, hiszen az MI sok esetben nyílt forráskódú projektek kódján tanult.

A szoftverbiztonság továbbra is kritikus kérdés maradt. 2020-ban egy nagyszabású supply chain-támadás derült ki (a SolarWinds nevű vállalat szoftverfrissítését feltörve kormányzati rendszerekbe jutottak be hekkerek), 2021-ben pedig a Log4Shell sebezhetőség rengeteg szervert érintett világszerte, bizonyítva hogy egy apró nyílt forrású komponens hibája is globális krízist okozhat. Mindez felgyorsította az ellátási lánc biztonságának vizsgálatát és az úgynevezett nulladik napi (zero-trust) biztonsági modellek terjedését. A nemzetek kormányai is egyre jobban figyeltek a szoftveriparra: az USA 2022-ben elfogadta a CHIPS és Science Act-et a félvezetőgyártás támogatására, az EU pedig kidolgozta az AI Act tervezetét a mesterséges intelligencia szabályozására. A szoftverfejlesztés kultúráját eközben a „távolról együttműködés” jellemezte: a fejlesztőcsapatok sokszor földrajzilag szétszórtan, online eszközökkel együttműködve dolgoztak. A 2022–2023-ban bekövetkező nagyszabású tech-leépítések (több nagyvállalat egyszerre több ezer mérnököt bocsátott el) rámutattak, hogy a szektor sem immunis a gazdasági ciklusokra. Összességében a szoftveripar a 2020-as években is a rugalmasságot, automatizációt és biztonságot helyezte előtérbe az egyre összetettebb rendszerek kiszolgálása érdekében.

Közösségi hatás

A 2020-as évek elejét a COVID-19 pandémia határozta meg, amely példátlan módon tette próbára a világ társadalmait – és a technológia kulcsszerepet játszott a válaszadásban. Az emberek tömegesen szorultak a digitális térbe: a munkahelyi meetingektől az iskolai oktatásig, sőt a baráti találkozókig sok minden átkerült az online platformokra. Ez felgyorsította a digitalizációt olyan területeken is, ahol korábban lassabb volt (pl. telemedicina, e-kormányzat). Ugyanakkor rámutatott a társadalmi egyenlőtlenségekre is: akinek nem volt stabil internetkapcsolata vagy digitális eszköze, az lemaradt – a digitális szakadék problémája így új megvilágításba került. A pandémia alatt az álhírek és összeesküvés-elméletek is virálisan terjedtek az interneten (pl. vakcina-ellenes mozgalmak), ami tovább fokozta a hiteles tájékoztatás kihívását.

A geopolitikában is megjelent a technológiai vetélkedés. Az USA és Kína között technológiai hidegháború bontakozott ki: az Egyesült Államok korlátozásokat vezetett be a kínai cégek (pl. Huawei, TikTok) ellen adatbiztonsági és nemzetbiztonsági aggályokra hivatkozva, valamint exporttilalmat rendelt el a csúcstechnológiájú chipekre és berendezésekre (2022). Kína ezzel párhuzamosan igyekezett saját önellátását erősíteni a félvezetők és szoftverek terén. 2022-ben kitört az orosz–ukrán háború, ahol a kibertámadások, a műholdas internetszolgáltatások (SpaceX Starlink) és a közösségi média narratívaháborúja mind a konfliktus részévé váltak. A technológiai nagyvállalatok erejét továbbra is vitatták: az EU-ban életbe lépett a Digitális Szolgáltatások és Digitális Piacok törvénye (DSA, DMA), hogy szabályozza a „Big Tech” hatalmát, és világszerte vizsgálták a Google, Amazon, Facebook monopóliumait.

Mindeközben a mindennapokban az emberek életét egyre inkább átszőtte a technológia. A távmunkának és rugalmasságnak köszönhetően felértékelődött az életminőség és a vidékre költözés lehetősége, bár ez nem mindenhol valósult meg. Az okoseszközök és alkalmazások rengeteg adatot gyűjtöttek a felhasználókról, ami egyrészt személyre szabott élményeket nyújtott, másrészt folyamatos megfigyelés érzését kelthette. A mesterséges intelligencia 2023-as robbanása ismét aggodalmat keltett: sokan tartanak attól, hogy a generatív MI elmosta a valós és hamis tartalmak határát, illetve bizonyos szakmák (pl. ügyfélszolgálat, tartalomgyártás) munkahelyeit fenyegetheti. Ugyanakkor az innováció reményekre is okot ad: az MI-től orvosi áttöréseket, az automatizálástól pedig veszélyes vagy monoton munkák kiváltását várják. A 2020-as évek elejére a társadalom nagy kérdése az lett, hogyan lehet a technológia előnyeit maximalizálni úgy, hogy közben kontroll alatt tartjuk a káros hatásokat – legyen szó az egyéni mentális egészségről, a demokrácia védelméről vagy a nemzetbiztonságról.

Video hosting serviceIEEE 802.11blogwikiWeb search engineWorld Wide WebWYSIWYGPort Island LineUsenetCATS (trading system)VisiCalcemailPongNon-linear video editingNLS (computer system)The Mother of All DemosProof assistantCDC 6600Bulletin board systemSpacewar (video game)computer reservations systemtimesharingcompiler compilerCSIRACMicrosoft Power FxC++20Bosque (programming language)Fortran 2018Q SharpC++17Raku (programming language)C++14SwiftTypeScriptElm (programming language)Elixir (programming language)KotlinC++11RustCoffeeScriptClojureGo (programming language)PowerShellF Sharp (programming language)Scala (programming language)ActionScriptC Sharp (programming language)D (programming language)XSLTPHPObjective CamlRuby (programming language)Java (programming language)JavaScriptDelphi (programming language)AppleScriptVisual BasicPython (programming language)HaskellMathematicaTclErlangPerlSQL (programming language)HyperCardObjective-CEiffel (programming language)CamlPostScriptPARADOX programming languageCommon LispTurbo PascalC++Ada (programming language)DBASERexxAWKSQLModula-2VisiCalcIDL (programming language)FORTRAN 77Scheme (programming language)ML (programming language)PrologC (programming language)SmalltalkForth (programming language)Pascal (programming language)B (programming language)PLILogo (programming language)ALGOL 68BCPLFORTRAN 66BASICSNOBOLSimulaAPL (programming language)COBOLMAD (programming language)Lisp (programming language)ALGOL 58FORTRAN IMark I AutocodeA-0 SystemPlankalkülWindows Server 2022Windows 11Windows Server 2019ArcaOSWindows Server 2016Windows 10Windows Server 2012 R2Qubes OSWindows Server 2012Windows 8Chrome OSWindows Server 2008 R2Windows 7Android (operating system)Windows Server 2008Windows VistaiOSWindows Server 2003 R2Ubuntu (operating system)ReactOSWindows Server 2003Gentoo Linuxz/OSWindows XPMac OS XWindows 2000Windows MeMac OS historyMac OS historyBlackBerry OSWindows 98FreeDOSSymbianMac OS historySUSE LinuxMkLinuxWindows 95OS/390OpenBSDRed Hat LinuxDebianSlackwareWindows NTUnixWareSLS LinuxOS/2Windows 3.1xSolaris Operating EnvironmentLinuxOSF/1BeOSSCO UNIXNEXTSTEPPOSIXOS/400RISC OSWindows 2.0OS/2MinixIRIXHP-UXApple IIgsAIX (operating system)MachWindows 1.0Atari TOSAmigaOSGNUMac OS historyUNIX System VApple LisaSunOSMS-DOSOS-9Virtual Memory SystemApple DOSCP/M operating systemMVSVM/CMSRSTS-11RT-11UnixTOPS-20Airline Control ProgramWAITSCP/CMSMichigan Terminal SystemIncompatible Timesharing SystemMulticsOS/360TOPS-10Dartmouth Time Sharing SystemGeneral Comprehensive Operating SystemBurroughs MCPCTSSIBSYSSHARE Operating SystemUniversity of Michigan Executive SystemGM-NAA I/OIBM Q System OneList of AMD Ryzen processorsiPadIntel CoreIntel CoreIntel CoreIPhone (1st generation)Amazon KindleCell (microprocessor)Intel Core 2Pentium Dual-CorePentium DAthlon 64PowerPC 970ItaniumPOWER4Pentium 4AthlonList of Intel Pentium III processorsList of Intel Celeron processorsiMacList of Intel Pentium II processorsAMD K6List of Intel Pentium processorsAMD K5Power MacintoshPowerPC 600Pentium (original)i486IBM PS/2Connection MachineAcorn ArchimedesARM architectureAmstrad 1512Commodore AmigaAtari STi386MIPS architectureIBM ATApple MacintoshIBM PCjrIBM XTApple LisaApple IIe

Intel 80286Commodore 64BBC MicroIBM PCZX81

Apple IIIZX80Commodore VIC-20Motorola 68000Intel 8086TRS-80Apple IIVAX-11Commodore PETApple ICray-1MOS Technologies 6502Zilog Z80Altair 8800Motorola 6800Intel 8080Intel 8008Intel 4004PDP-11Datapoint 2200PDP-10BESMCDC 6600PDP-8IBM 360PDP-6ReserVecATLAS computerIBM 7030 StretchCDC 1604PDP-1IBM 1401AN/FSQ-7UNIVAC IIIBM 608IBM 305 RAMACHarwell CADETIBM 704IBM 650Strela computerIBM 701UNIVAC 1101Whirlwind (computer)UNIVAC ILEO (computer)Ferranti Mark 1Manchester Mark 1Small-Scale Experimental MachineIBM SSECENIACColossus computerHarvard Mark IZ3 (computer)Atanasoff–Berry ComputerDocker (software)CryptocurrencyTor (anonymity network)Onion routingPCI ExpressSerial ATABlade serverAsymmetric Digital Subscriber LineAccelerated Graphics PortDVD-ROMUSBIEEE 1394 interfaceBeowulf (computing)DNA computingSmartphoneConventional PCICD-iPCMCIAVESASVGAExtended Industry Standard Architecturesound cardVGAConnection MachinePersonal digital assistantSCSIParallel ATACD ROMEnhanced Graphics AdapterExpanded MemoryAdvanced Technology AttachmentDomain Name SystemcoprocessorMulti-touchRISCMIDIHayes SmartmodemColor Graphics AdapterIndustry Standard ArchitectureVMEbuscompact disksupercomputerlaser printersingle-board computerTCP/IPtouchscreenethernetMagnavox Odysseygame consolemicroprocessorfloppy diskdynamic RAMNPL networkARPANETRS-232fuzzy logicpacket switchingcomputer mousepagingvirtual memoryinterruptsspoolinggarbage collection (computer science)time-sharingintegrated circuitdot matrix printerhard diskmagnetic core memoryindex registersmagnetic drumRAMtransistorWilliams tubetrackballteletypeHutter PrizePOPLmark challengeDARPA Grand ChallengeGoogle Code JamTopCoderICFP Programming ContestCADE ATP System CompetitionInternational Olympiad in InformaticsQuantum ComputerP versus NP problemNorth American Computer Chess ChampionshipTuring TestRelational databaseDavid Levy (chess player)Moore's law