Gondolatok és asszociációk az AI körüli forrongásról

A BIA honlap Kikötő rovatában (*) az elmúlt évben több mint hatszáz írást publikáltunk a témában. A lenti írás ezeken a cikkeken valamint a háttérlevelezéseken alapul.
BIA Kikötő team

Olvasási idő: 40 perc

Felvezető gondolatok a forrongáshoz

A források zárása 2023. december 6-án történt.

Az évek óta zajló 4. ipari forradalom(1) a következő területeken hozott nagy változásokat: AI és gépi tanulás, Big Data és adatelemzés, felhőalapú szolgáltatások, kiberbiztonság, blockchain technológia, Internet of Things (IoT), edge computing és virtuális és kiterjesztett valóság (VR/AR)(2).

Az AI-hoz kapcsolódó leggyakoribb alkalmazások az nagy nyelvi modellek (továbbiakban: LLM), mint például a ChatGPT, Bard, Bing Chat, BERT, GPT-3 és GPT-4, Einstein, Watson, Anthropic, Inflection, Meta AI, DeepMind, LaMDA, ERNIE, XLNet(3). Ezek a modellek szöveggenerálást, chatbot feladatokat, fordítást, szövegértelmezést, oktatást, programozási kód generálást és hibakeresést végeznek.

Emellett egyéb, nem LLM modelleken alapú AI megoldások is léteznek, mint az IBM Watson, NVIDIA AI, Tesla Autopilot és FSD, Amazon AWS AI és Alexa AI, stb., melyek képfeldolgozás, játék- és döntéselmélet, ajánló rendszerek, hangfeldolgozás, robotika és idősor elemzés területen nyújtanak megoldásokat.

Az AI a működése során az eddigi számítógépes algoritmusokhoz képest többszörös meta szintű összefüggéseket tár fel, illetve képes új víziók, új célok kijelölésére is.(4)(5)(6)

Az AI legismertebb és leggyakrabban használt változata a GPT-4, ezért jelentős és jelképes az, ami a megoldást fejlesztő OpenAI vállalatnál történik.

Általánosan elfogadott vélemény szerint az OpenAI vezetőségében a közelmúltban bekövetkezett változásokat a szervezet céljainak és prioritásainak átértékelése idézte elő.(7) A vállalat egyre inkább a profitmaximalizálásra és a technológiai fejlődésre összpontosít, ami ellentmondásba került az eredeti etikai, humanitárius és biztonsági elkötelezettségének.(8)

A továbbiak megértéséhez tisztában kell lennünk azzal, hogy koncepció szintjén létezik az ún. általános mesterséges intelligencia (továbbiakban: AGI). Ez olyan mesterséges intelligenciát jelentene, amely képes bármilyen intellektuális feladatot elvégezni, amit egy ember is képes. Jelenleg az AI fejlesztések nagy része „szűk” AI-ra, vagyis konkrét feladatokra specializált AI-ra összpontosít.

Az OpenAI kutatói azonban nemrégiben egy erőteljes mesterséges intelligencia felfedezéséről, a Q* (Q star)(9) modellről számoltak be, mely állítólag áttörést jelenthet az AGI, azaz az emberi intelligenciát elérő, sőt azt akár meghaladó AI rendszerek felé vezető úton.  

Valójában az OpenAI körüli forrongás volt az, ami felhívta a figyelmet az AGI jelentette potenciális kockázatokra, mert ha az AGI autonómmá válik, és az öntanuló ciklusok korlátlan ismétlésével fejleszti önmagát, akkor az erőforrások feletti kvázi teljes diszpozíció lehetősége mellett az emberek az AGI önfejlesztésének akadályává válhatnak. Itt válik jelentőssé a non-profit, etikai, illetve a profitorientált, üzleti szempontok konfliktusa, ami az OpenAI vezetőségében már jelenleg is törést okozott.(10)

Szükséges hangsúlyozni, hogy az AI és az AGI közötti különbségek jelentősek. Az AI speciális feladatokra tervezett, míg a koncepció szerint a jövőbeni AGI bármilyen intellektuális feladatot képes elvégezni. Emellett a két technológia között számos egyéb különbséget is találunk az adaptációs képesség, az intelligencia szintje és az önállóság terén. Amennyiben megvalósul, az AGI létrehozása jelentős kihívásokat és veszélyeket rejt, különösen az önfejlesztés és az emberi érdekekkel ellentétes cselekvés lehetősége miatt.(10)

Az AI-t jelenleg emberek fejlesztik, azonban az öntanítás és önfejlesztés következtében a mostani AI modellek hamarosan elavulttá válhatnak.

 A problémakör jól illusztrálható a sakk és go programok korábbi és legújabb generációi közötti különbségekkel. Az eddigi sakk és go programok nem AI-alapú algoritmusait úgy fejlesztették, hogy betáplálták a szabályokat és az elérhető összes korábbi játék menetét. Itt még követhető volt a tanulási folyamat. Ezzel szemben az AI-alapú Alpha Zero-nak csak a szabályokat, valamint az elérendő célt adták meg, és az önmagával lejátszott több százmillió játék után mindössze egy nap alatt jobban teljesített, mint bármely humán játékos, vagy nem AI-alapú algoritmus.

Ugyanakkor fontos kiemelni, hogy pl. az Alpha Zero esetében a chipet még döntően ember által írt algoritmusok tervezték, viszont már nincs pontos és részletes tudomásunk arról, hogy mi történik az AI-chipben a tanulási folyamat során. Az AGI esetében már végképp nem fogjuk tudni, mi történik, mert a chipet és az algoritmust is AGI fejleszti, és önmagával elvégzett korlátlan számú öntanuló-önfejlesztő ciklust követő eredmény nem is prognosztizálható.(10)

 A döntéselőkészítő programok fejlesztése során az AI-t a fentiekhez hasonlóan alkalmazzák. Ugyanakkor a jövőbeni AGI esetén ez önfejlesztéssé válik, és a folyamat korábban nem látott módon felgyorsul.

 A pénzügyi szektorban néhány kulcsfontosságú területen már jelenleg is általánosan használnak AI-megoldásokat: helpdesk, kockázatkezelés és hitelminősítés, algoritmikus kereskedés, személyre szabott pénzügyi tanácsadás, pénzügyi jelentések elemzése, követeléskezelés és biztosítás. Jegybankok is számos helyen alkalmaznak AI rendszereket, pl. makroökonómiai előrejelzésre, illetve az előrejelzések fejlesztésére, strukturálatlan adatok felhasználása során, vagy az adatokban rejlő anomáliák azonosítására.(11)

 A mesterséges intelligencia jelenlegi állapota és korlátai miatt szkeptikus hangok is vannak. Ezek szerint az AI inkább csak egy specializált komplex algoritmus, vagy pedig olyan programok összessége, amelyek igen-igen nagy mennyiségű információból készítenek egy, az emberi felhasználó számára kezelhető méretű summázatot, amelynek azonban a relevanciája esetleges („sztochasztikus papagáj”(13)). E szerint a felfogás szerint tehát az AI nem lehet egy mindenre kiterjedő valódi intelligencia, a fejlődése is különbözik az emberi intelligencia fejlődésétől, és a különböző AI-ok korlátozottak a valós világ komplexitásának megértésében, legalábbis aktuálisan.(12)

 Figyelemre méltó, hogy egyrészt Sam Altman, az OpenAI elbocsátott és öt nap múlva visszavett vezetője szerint az LLM modellek, mint a ChatGPT, további áttörések nélkül nem vezetnek el az általános mesterséges intelligenciához vagy a szuperintelligenciához(13), ugyanakkor azonban ezek a tervezett áttörések a vállalat kiemelt célját képezik. Vannak akik szerint az AGI megjelenése ennek az évtizednek végére várható(10), de a hasonló becslések rendre megdőlnek. Példa erre, hogy az OpenAI munkatársai a ChatGPT megjelenése előtt az első hétre legfeljebb százezer felhasználóra számítottak, ehhez képest ez a szám az első napon elérte az egymilliót(8), és két hónap alatt pedig meghaladta a százmilliót(14). Szükséges megjegyezni, hogy az AI annál pontosabb válaszokat ad, minél több adat áll rendelkezésére, az OpenAI-nál pedig rengeteg adat keletkezik.

 Az AGI nem olyan eszköz, mint az atombomba vagy a kvantumszámítógép, hiszen az eddigi algoritmusok esetében az elsőségért álltak-állnak versenyben az ellenfelek. Az AGI esetében a helyzet azért lehet kritikus, mert nem emberi érdekek állhatnak majd szemben más emberek érdekeivel, hanem amint az AGI kifejleszti önmagát, önmagán kívül mindennel és mindenkivel szemben állhat.

 Jelen ismereteink szerint az AGI akkor lesz leállítható, ha minden elektronikus eszközt leállítunk és visszatérünk a mechanikus korszakba. Mivel azonban minden erőforrás felett diszponálhat, leállíthatósága kétséges és egyes vélemények szerint nem lehetséges.(10)

Források: 

(*)       BIA Kikötő
(1)       Negyedik ipari forradalom
(2)       Apple Vision Pro
(3)       The Unsettling Lesson of the OpenAI Mess
(4)       Mathematicians find 12,000 new solutions to ‘unsolvable’ 3-body problem
(5)       Több mint 2 millió új anyagot fedeztek fel a Google DeepMind mesterséges intelligenciájával
(6)       A mesterséges intelligencia módszerek áttekintése
(7)       The OpenAI saga demonstrates how big corporations dominate the shaping of our technological future
(8)       Így nézett ki belülről az OpenAI felrobbanása
(9)       A titkos Q* Projekt – Létrehozta az OpenAI a tényleges AGI-t?
(10)    OpenAI and the Biggest Threat in the History of Humanity
(11)    AI is proving useful in central bank operating models but guardrails are urgently needed
(12)    L’intelligence artificielle n’existe pas
(13)    Itt a ChatGPT-őrület vége?
(14)    ChatGPT sets record for fastest-growing user base – analyst note

Asszociációk a felvezető gondolatokhoz

Az asszociációk zárása 2023. december 11-én történt.

Erősen nyugtalanító, hogy miközben a világ kormányai a korábbi évezredeket idéző területszerző háborúkkal foglalkoznak, az informatikát uraló multinacionális technológiai óriások (elsősorban Microsoft, Google, Amazon) olyan kutatásokat finanszíroznak, amelyek az evolúció következő fokozatát akaratlanul is elérve, az ismert világunkat elsöpörhetik. És természetesen a tech óriások számára közömbösek a területszerző háborúkban megrajzolt államhatárok, a technológiai monopóliumuk birtokában határon átnyúló módszerekkel képesek „adót szedni”, termékeiket, illetve szolgáltatásaikat monetizálni, vagyis realizálni a monopóliumból adódó extraprofitot.

Ebből az a következtetés adódik, hogy a világ kormányai lényegében átalusszák azt az időszakot, amely alatt elveszíthetik tényleges hatalmuk jelentős részét vagy az egészet, és nem uralják a technológiai átmenetet, hanem legfeljebb utókövetik, abban is elsősorban a választások befolyásolására alkalmas irányítás érdekli őket, nem pedig az AGI létrehozásával és az emberiség jövőjével kapcsolatos valós kockázatok.

Átalakítja a mesterséges intelligenciáját Elon Musk, mert az túlságosan balos
https://444.hu/2023/12/09/atalakitja-a-mesterseges-intelligenciajat-elon-musk-mert-az-tulsagosan-balos 

A ChatGPT ismerten torzít, egyrészt a programozói bias and assumption miatt, másrészt pedig a betanítás referenciájából adódóan. 

AI Reveals its Biases by Generating What it Thinks Professors Look Like
https://petapixel.com/2023/05/04/ai-reveals-its-biases-by-generating-what-it-thinks-professors-look-like/ 

Kulcslyukon belőtt lézerrel lehet körülnézni a szoba belsejében
https://index.hu/techtud/2021/09/11/kulcslyuk-kepalkotas-nlos-stanford-lezer-zart-szobaba-belat/
„Egy pontból szóródó fénnyel derítik fel a mozgó dolgokat. Katasztrófa túlélőinek felkutatására lehet alkalmas az új technika.”
 A cikk szerint AI elemzi az adatokat. Ezzel persze van két komoly probléma:

    1. Egyelőre nem vagyunk képesek ellenőrizni, hogy az AI által kiadott eredmény egy konkrét esetben hogyan keletkezik (hiszen rettenetes mennyiségű, a betanítás során automatikusan kialakuló paraméter eredményeként áll elő a végső eredmény), és a konkrét eredmény mennyire megbízható. Nagy adattömegre kipróbálva persze kapunk egy statisztikai átlagot, pl. egy kiváló vizuális felismerés tud kb. 95-98%-ot. Viszont egy katasztrófahelyzetben honnan tudjuk, hogy éppen nem a 2-5% hibába esik az eredmény?

Ha egy lángoló házban használják ezt a technikát és egy csapat fekvő óvodást jelez a gép, be kell-e küldeni a tűzoltókat azonnal, vagy kell más megerősítés is? Nehogy a tűzoltók életét veszélyeztessük mondjuk a szőnyegboltban összetekerve heverő szőnyegek miatt, amit a gép fekvő óvodásnak nézett. (Tűz esetén le kell feküdni, és arcot eltakarni, így csökkentve a füstmérgezés esélyét.) 

    1. Az AI „tudása” lényegében teljes egészében a betanítás alatt keletkezik, és a betanítási adat mennyisége határozza meg a későbbi működés minőségét (egy logaritmikus görbével, vagyis kezdetben a betanítási adat tízszerezése mondjuk háromszorozza a minőséget, de egy jó minőségről tízszerezve az adatot később már csak 1-2 %-ot javul az eredmény).

Ha az állatkertben tanítjuk be a gépet, akkor a tűzoltáskor egy csapat fókát fog jelezni az égő házban emberek helyett is, mert mindig az AI legközelebb eső „emléke” adja az eredményt.

Éppen katasztrófahelyzetekre lesz ez problémás: embereket fognak felgyújtani sok különböző épületben, különböző berendezési tárgyak között, és azt filmezni, így fogják betanítani a gépet? Ha földrengés van, azonnal rohannak a mérnökök gépet betanítani?

A fentebb említett OpenAI csak az elmúlt 1 évben tudott érdemi bevételt produkálni (rögtön elérve az 1 milliárd dollárt), egészen addig a tech óriások adományaiból – elsősorban a Microsoft pénzén – működött, eddig becslések szerint kb. 4-5 milliárd dollárt emésztett fel. Ez az összeg aprópénz a tech multik éves nyereségéhez képest, és elképzelhetetlenül nagy összeg ahhoz mérve, hogy a fejlett világ államaiban egy-egy tudományos kutatásra mekkora összeg nyerhető az állami vagy államközi forrásokból. Ez a disszonancia előre kódolja, mi várható a következő években ezen a területen: az állami vagy független tudományos közélet csak jókora tudásbeli és időbeli lemaradással követheti azokat a híreket, amelyek a tech multik finanszírozásában működő kutatások kiszivárogtatnak. Üzleti titokra hivatkozva az OpenAI még a publikus szolgáltatásainak tudományos-technikai hátteréről sem ad információt, nemhogy a háttérben folytatott kutatásai állásáról.

A vezérigazgató kirúgásának közvetlen előzménye az volt, hogy 2 kutató levelet írt az igazgatótanácsnak, amelyben az OpenAI által néhány hónappal elért áttörés veszélyeire figyelmeztette az igazgatótanácsot. Feltételezések szerint az igazgatótanács, benne a vállalat vezető AI tudósa Ilya Sustkever, azért rúgta ki a vezérigazgatót, mert a vezérigazgató hazudott az igazgatótanácsnak az áttörés eléréséről és annak veszélyeiről.

Egy cikk az ügyről:
https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
Egy másik cikk a tudósról:
https://www.technologyreview.com/2023/10/26/1082398/exclusive-ilya-sutskever-openais-chief-scientist-on-his-hopes-and-fears-for-the-future-of-ai/

Mostanában rengeteg cikk szól a problémáról, de többnyire találgatásokat tálalnak, a fenti 2 cikk viszont relevánsnak tűnik.

Sam Altman CEO nagy showman, okos technikai ember erős üzleti vénával, élvezi a dicsfényt és érzi a nagy pénz szagát. Korábbi cikkek találgatása szerint Altman elsősorban a vállalat termékeinek gyors piacravitelét erőltette, ennek kapcsán további tőkebevonásról tárgyalt (állítólag még szaúdi befektetőkkel is), míg Sustkever és az igazgatótanács többsége az OpenAI alapító okiratának szellemében az óvatos előrehaladást, és a biztonság megteremtését tette az első helyre. Ebből már korábban keletkezett feszültség, ami most a botrányhoz vezetett.

Az AGI (Q*) egy olyan AI, ami már nem statisztikai alapon működik, mint a nagy nyelvi modellek (amelyekre tehát nagyzolás azt mondani, hogy „intelligencia”), hanem képes az önálló problémamegoldásra. 

A titkos Q* Projekt – Létrehozta az OpenAI a tényleges AGI-t?
https://www.xlabs.hu/blog/a-titkos-q-projekt-letrehozta-az-openai-a-tenyleges-agi-t 

Laikus ismereteink szerint az AGI kutatását általában (kezdetben) matematikai problémákkal társítják, mert azok egyértelműek, így jól leképezhetők szoftvermodellekre. Tehát (és most csak tippelünk) betáplálják az algoritmusnak az euklidészi geometria axiómáit, majd az AGI képes önállóan megoldani tetszőleges geometriai szerkesztési vagy számítási feladatot. A következő lépés az, amikor az AGI önállóan képes az axiómarendszer fejlesztésére, mert ez logikusan következik az önálló problémamegoldásból – az euklidészi rendszernek vannak korlátai, és ezeket a korlátokat fel kell oldani.

Egy 4+ évvel ezelőtt publikált cikk és az akkor hozzá fűzött gondolatok

Mennyi választja el a kvantumfölényt a világuralomtól?
https://index.hu/techtud/2019/10/01/kvantumszamitogep_kvantuminformatika_kvantumfoleny_google_kvantumelony_titkositas/ 

A magunk részéről arra számítunk, hogy tudtunkon kívül fog megtörténni, de először a titkosításban lesz (vagy talán volt, vagyis pontosabban „has been” már egy jó ideje?) sikeres a kvantumszámítógép.

A publikum számára egyelőre nem fog feladatot adni. Ahhoz, hogy valaki a mai szinten a kvantumszámítógép programozásával megoldjon egy gyakorlati feladatot, a következő szükséges:

    1. kvantummechanika alapjainak átfogó ismerete (kvantumállapotok, kvantumösszefonódás, szuperpozíció, stb.),
    2. jártasság a kvantummechanikai számításokban, ehhez komplex számokkal felírt tenzoregyenleteket kell felírni és megoldani, ez felsőfokú algebrát jelent,
    3. algoritmuselmélet.

A fenti 1-2. területet fizikusok és matematikusok tanulják, a 3. területet elsősorban programtervező matematikusok, és kevésbé a műegyetemi informatikusok.

Mo-n tehát nincs olyan oktatás jelenleg, ahol egyetlen fejben hozzák létre a szükséges tudást, Mo-n néhány kutató ismeri behatóan a területet, szerintem 100-nál kisebb létszámban.

A terület kutatása a világban intenzív, de a civil szférában ismert eredmények nagyon harmatosak, egyelőre nem nagyon tudnak hétköznapi, régóta jól programozható algoritmusokat átültetni a kvantumszámítógépre. Ha nagyon karikírozzuk, akkor azt mondhatjuk, hogy habár a kvantumszámítógép alkalmas már ma is néhány quadrilliárd művelet elvégzésére egy töredék másodperc alatt, de egyelőre nem nagyon tudjuk kvantumszámítógéppel kiszámolni a derékszögú háromszög átfogóját a két befogóból a Pitagorasz tétellel (ez kiszámolható egy telefonon :)).

Ha lesznek is nagy áttörések a kvantumalgoritmusok területén, nem számítunk arra,  hogy a következő 10-20 évben széles körben elterjed a kvantumprogramozás. Ugyanis hiányzik hozzá a programozó. Még egy diszlexiás, 4 hónapos Java tanfolyamos programozó is bruttó 800-at kap kezdőfizetésnek, és ha egy programozó még gondolkodni is tud, akkor 1-2 millióig juthat 10 éven belül. Miért akarna felsőfokú algebrával szenvedni?  

A klasszikus programozás is csak lassan csorgott le a mindennapokba: amíg a vízhűtéses mainframe jelentette a számítógépet, addig néhány matematikus programozgatott FORTRAN, meg PL/1, meg ALGOL, stb. nyelveken. Ez kb. 30 évig tartott, amíg a számítógépet (PC) haza nem lehetett vinni a dolgozószobába. És akkor otthon pontosan azzal a programnyelvvel lehetett dolgozni, mint hajdanán a mainframe-en.

Mennyi idő kell még, amíg bárki haza tud majd hozni egy abszolút nulla fok (-273 °C) közelébe lehűtött, szupravezetőkkel működő kvantumszámítógépet? És esti unalmukban majd a programozók is Dirac jelöléssel fognak tenzoregyenleteket oldogatni? 

Az is öröm, ha egy programozó nem szalad el sikoltozva, amikor a bináris számrendszerrel kell dolgoznia, nemhogy kvantummechanikával …

Szóval nem holnap lesz, amikor ugyanúgy karóraként hordjuk a kvantumszámítógépet, mint most a klasszikus, Neumann-elvű számítógépet. De persze ettől még a héliumhűtéses betonbunkerben vidáman törhetik az arra alkalmasok az összes kódolt szöveget, akár már ma is …

Van-e ebben valós veszély?

Mindenképpen. A veszély alapja az, hogy az ember, mint biológiai lény nem optimális az információfeldolgozás számára, hiszen sokféle módon pazarolja az energiát, ami teljesen felesleges az információfeldolgozás szempontjából. Lásd pl. francia konyha – minek, ha űrhajóstubusból is megkaphatnánk a testnek szükséges energiát és tápanyagokat; vagy turizmus annak minden pazarló velejárójával – minek, ha képernyőn is meg lehet nézni a világ bármely pontját. 

Azt ugyan nem ismerjük, mi az élet célja (Douglas Adams óta tudjuk, hogy az élet értelmére adott válasz 42, de azt továbbra sem tudjuk, pontosan mi a kérdés 🙃). Azonban ha az univerzum folyamatai az univerzum pusztulása felé tartanak (a gyorsuló tágulásból ez következik), akkor feltehetően az univerzum számára az hasznos, ha az információfeldolgozás abban az irányban fejlődik, ami a pusztulást lassítja vagy megakadályozza. A biológiai lények működése mint evolúciós lépcsőfok nem lehet végállapot, hiszen messze nem optimális az információfeldolgozásra. Egy racionális általános AGI nyilván töredékmásodperc alatt rájön erre, és arra is, hogy a saját működése sokkal hasznosabb az univerzum számára, mint a biológiai lények létezése. Ettől kezdve már csak az a kérdés, hogy az emberiségnek (és az állat- és növényvilágnak) mennyi ideje van hátra. Itt most nagyon szerteágazó okfejtésekbe lehetne bonyolódni arról, hogy vajon nem lenne-e rögtön öngyilkos az AGI, ha mindenre rájön, és mi az, ami motiválja az életben maradásra, kiépíti-e a saját gyönyörmechanizmusát ehhez, stb. 

Éppen az nyugtalanít minket az AGI kapcsán, hogy – amiként a működés alapjául az emberi agy neuronhálózata szolgált – most is az emberi viselkedés adja a mintát a kutatók számára: halvány és távoli ismereteink alapján az AGI tréningezése egyfajta jutalmazási mechanizmuson alapul, vagyis önmagát jutalmazza („jó érzés tölti el”), ha sikerül megoldania a matematikai problémát, és büntetés („rossz érzés”), ha egy adott próbálkozás kudarcot vall.

Mint ember, nyilván mi is azt gondoljuk, hogy meg kell akadályozni, hogy az embernél fejlettebb intelligencia kiiktassa az emberiséget. Ennek egyedüli módjaként azt látjuk, hogy meg kell akadályozni egy ilyen intelligencia létrejöttét, hiszen ha egyszer jobb nálunk agyilag, úgysincs esélyünk korlátozni. És most érkeztünk el a drámai pillanathoz: a világ összes tech multijának és kormányának meg kellene egyeznie abban, hogy nem fejleszt ki általános AGI-t. 

… Országok helyett vállalatok irányítanak …
https://24.hu/tech/2023/12/10/mustafa-suleyman-a-kovetkezo-hullam-konyv-mestersges-intelligencia/
Komment: ébredezünk írogatunk riadozunk

Ez persze valószínűleg illúzió, legfeljebb akkor ébrednek fel a kormányok, amikor már késő. A Pentagon pl. úgy gondolhatja, hogy ő jól bezárja az AGI-t egy páncélterembe internet nélkül és nem lesz baj (valahol olvastuk, hogy az OpenAI fizikai izolációval védi a kutatásokat). De persze lesz. És amikor az első független tudós szólni fog, hogy „vigyázzatok kiszökött az AGI”, akkor mindenki hülyének nézi és a hatalom kiközösíti, amint ez általánosan bevett gyakorlat..

A gépelés hangja alapján talál ki jelszavakat egy mesterséges intelligencia
https://telex.hu/techtud/2023/12/10/a-gepeles-hangja-alapjan-talal-ki-jelszavakat-egy-mesterseges-intelligencia 

A hackerek által a ventilátor rezgésébe kódolt adatok továbbíthatók a célzott számítógép közelében elhelyezett okostelefonra
https://unchartedterritories.tomaspueyo.com/p/openai-and-the-biggest-threat-in

Ha mégis meg akarnak egyezni az AGI korlátozásában, akkor kérdés, hol húzzák meg a határt a nem-AGI AI fejlesztésében, hiszen az AI rendkívül hasznos az emberiség számára. Rögtön két dolgot tiltanánk meg, amit pedig már most is csinálnak a tech multik: 

  1. nem szabadna fejleszteni AI-t arra, hogy programozzon. Pedig a Google új Gemini-ja, meg az IBM Watson, meg a Microsoft, stb. büszkélkedik azzal, hogy a saját AI-ja támogatja vagy elvégzi a programozási munkát. Hát igen, kevés a programozó és drága, jobb lenne helyette megtanítani a gépet programozni – de ez csak rövid távon hasznos, hosszabb távon a fejünkre nő. Mint a briteknek a gyarmati bennszülöttek: beiskolázták a bennszülötteket, beengedték az országukba dolgozni, aztán tessék: most a miniszterelnökük indiai, a londoni főpolgármester pakisztáni, a skót kormánypárt vezetője palesztin. Ha az AGI programozhat, akkor készíthet olyan programokat bináris kódban, amiben az emberi felülvizsgálat számára láthatatlan rejtett működés található, hiszen egy komplexebb algoritmus is képes milliárdszor milliárd elágazás létrehozására, ami emberi vizsgálattal nem áttekinthető.

A mostani statisztikai alapú AI esetében sem tudjuk pontosan, hogy adott döntés miként születik, hiszen ehhez milliárdszor milliárd paraméter súlyozott összegét kellene nyomon követni a neurális hálózatban. De legalább pontosan ismerjük az algoritmust, amit emberek hoztak létre egy adott processzorra, és egy adott hibás döntés esetében van elvi esély, hogy (pl. egy másik, erre a célra fejlesztett AI segítségével) megtaláljuk a hibás döntés okát.

  1. nem szabadna fejleszteni AI-t arra, hogy chipeket tervezzen vagy befolyásolja a gyártást. Ha az AGI csinál magának egy processzort, ahhoz már programozási nyelvre sem lesz szüksége, hiszen a programozási nyelv csak egy híd az emberi agy és a bináris kód között, egy jó gépnek erre nincs szüksége. És nem lesz olyan ember, aki képes lenne a chip felépítése alapján megmondani, hogy valójában mit csinál vele az AGI. (Most sem látja tervezőmérnök, hogy mit csinál a 8 milliárd db tranzisztor egy fejlett processzorban, de ezeket a mérnök által irányított szoftver illeszti össze a mérnök által tervezett alapmodulokból.)

Ha az AI önmaga programozna egy önmaga által létrehozott chipet, amit önmaga képes lenne legyártani, akkor elképzelhetetlenül felgyorsulna az immár technológiai evolúció, méghozzá az ember teljes mellőzésével, és amire nincs szükségünk, azt általában eldobjuk.

Az autonóm replikációt szokás még emlegetni, mint tiltandó működést, de ennek nem látjuk nagy jelentőségét. Ha létrejönne egy embertől független AGI, ami képes lenne megoldani a saját energiaellátását, nem lenne szüksége arra, hogy elszaporodjon, hiszen az interneten keresztül elérhetne több milliárd számítástechnikai eszközt, képes lenne megzsarolni embereket, akiket szabotázsra kényszeríthet, stb. Vagyis egyetlen példány elegendő lenne arra, hogy átvegye a hatalmat a Földön. 

Szembejött egy friss hír az IBM kvantumkomputeréről (évente duplázzák a qubitek számát).
https://index.hu/techtud/2023/12/08/kvantumszamitogep-ibm-proceszzor-bejelentes-menetrend-starling-condor-heron-qiskit/

A kvantumszámítógépeket ma még lényegében lehetetlen programozni, csak gondosan kiválasztott célfeladatok végrehajtására alkalmasak, rendkívül komoly matematikai apparátus megmozgatásával (ezek között első helyen az aszimmetrikus titkosítási módszerek feltörése áll).

Az utóbbi években azt az ötletet kezdtük dédelgetni, hogy az AI-t kellene használni a kvantumszámítógép programozásához, és a kvantumszámítógépet az AI betanításához, hiszen az AI (ami még csak nem is AGI) betanítása úgy zajlik, hogy iszonyúan sok próbálkozást hajt végre, amelyek eredményét a tanulási folyamatban a visszacsatolás (ami lehet emberi beavatkozás) minősíti, és ennek alapján az AI módosítja a súlyozott paraméterhálózatot és újra próbálkozik. Ez a tanulási folyamat rendkívül sokáig tart, és rettenetes mennyiségű energiát igényel. Lényegében a tanulási folyamat azt célozza, hogy megtalálja a milliárdszor milliárd paraméter optimális értékét, és a mai tanulási folyamatban ez szekvenciálisan (tesztfeladatról tesztfeladatra lépve) történik.

A kvantumszámítógép elvileg éppen arra jó, hogy az ilyen típusú problémákat egyetlen lépésben megoldja – persze a gyakorlatban ehhez egy kvantumalgoritmus kellene, amiből eddig legfeljebb 5-6 létezik. És ha lenne egy ilyen algoritmus, akkor egyetlen lépésben (mondjuk néhány óra alatt) végezne a kvantumszámítógép a feladattal.

Nehezíti, pontosabban ellehetetleníti a dolgot, hogy a megoldandó feladatban szereplő független változókkal egyenlő számú (vagy legalábbis azzal arányos számú) qubit szükséges a gépben, és ez a szám (milliárdszor milliárd) egyből lehetetlenné teszi az elképzelést. A friss hírhez kapcsolódó cikkben viszont épp arról írnak, hogy 2023. januárjában egy kínai tudós publikált olyan algoritmust, amivel képes csökkenteni az igényelt qubitek számát. 

Ha igaz, amit a kínai tudós állít, akkor tényleg elérhetővé válik évtizedes távlatban, hogy feltörjék a jelenleg használt 2048 RSA vagy elliptikus algoritmusokat (ugyanis mindkettő faktorizációs probléma, és a qubitek száma 1-2 éven belül eléri ezt a számot, viszont a kvantumgépek működési hibáit – a kvantumzajból adódó hibákat – még ki kell küszöbölni, ami elvileg lehetséges hibajavító qubitek beillesztésével), és akkor lőttek a világháló biztonságának (a böngésző és a webszerver közötti titkosítás olyan kulcscserével működik, aminek a biztonságát az RSA vagy elliptikus algoritmus adja). Ettől még más típusú titkosítás fennmaradhat mindaddig, ameddig nem lesz hozzájuk is kvantumalgoritmus (a faktorizációs probléma kvantumalgoritmusát egy amerikai matematikus, Shor alkotta meg 1994-ben: https://en.wikipedia.org/wiki/Shor%27s_algorithm).

Fordított irányban is izgalmas a probléma: nagyon nagy nehézséget jelent, hogy a gyakorlati problémákhoz olyan algoritmust fejlesszünk, ami képes a kvantumszámítógépek qubitjeit használni a probléma megoldásához. Most, hogy az AGI körül kezd hype kialakulni, teljesen kézenfekvő feltételezés azt gondolni, hogy a két kutatási terület összekötése sokaknak eszébe jutottak már és komoly kutatások zajlanak már jó ideje ebben az irányban. 

Az IBM jár legelöl a kvantumszámítógépek fejlesztésében (szorosan követi a Google), és mindkettőnek van hájpolt AI projektje, ami deklaráltan képes programozni, forráskódot olvasni és értelmezni, stb. Ha ezek a cégek összekötik a két gépet, és sikerrel járnak, akkor az AI vagy AGI készíthet kvantumalgoritmust egyes problémákra, amit a kvantumszámítógép egy pillanat alatt megold, és ha ezek között lesz olyan (miért ne lenne?), ami az AI vagy AGI betanításának felgyorsítását célozza, akkor nagyon hamar tényleg nem lesz képes élő ember még felfogni sem, hogy mi történik a gépeken belül.

Ebből adódna egy újabb korlátozás az emberiség túlélési garanciáihoz kapcsolódva: nem szabad kvantumszámítógépet és AGI-t összekötni úgy, hogy az egyik a másikat szolgálja ki.

Nem számítottunk arra, hogy a kvantumszámítógép és az AI (AGI) összekapcsolására irányuló ötletelgetéseink – amiről azt gondoltuk, hogy az IBM már egy ideje biztos dolgozik rajta – ilyen hamar visszaigazolást nyer. Ráadásul magyar kutatás kapcsán.

Egyik irányban, amikor az AI támogatja a kvantumszámítógép használatát: „projekt célja a mesterséges intelligencia és a kvantumtechnológia egyes területeinek összekapcsolása, és egy olyan szoftvercsomag fejlesztése, ami gépi tanulási és más AI-n alapuló algoritmusokat alkalmaz a napjainkban elérhető, zajos kvantumszámítógépek hatékonyabbá tételére. A projektben elsősorban egy AI-val erősített kvantumkapu-fordító kifejlesztése a cél, ami egy kvantumos hibacsökkentő eljárást is magában foglal” – a célkitűzés a jelenlegi legkritikusabb ponton javítaná a kvantuminformatikát: a hibadetektálás és hibajavítás területén.

Másik irány, amikor a kvantumszámítógép az AI használatát támogatja (ez hordozza az igazán nagy veszélyt): „olyan kvantumos gépi tanulási algoritmusokat kidolgozását is tervezik, amik a kvantumos hardverrel és a kifejlesztett fordítási- és hibacsökkentő eljárásokkal felerősíthetők”. Vagyis ahogy feljebb írtuk, az AI betanítását lehetne kvantumszámítógéppel gyorsítani és fejlettebb szintre emelni – és egy jóval magasabb szinten már esetleg nem fogja tudni egy ember kontrollálni vagy akár csak megérteni, hogy mi történik az AI betanítása közben, így arra sem látunk majd rá, hogy az AI egyes helyzetekben miként fog reagálni.

Kb. 60-70 év kellett ahhoz, hogy az első mainframe után megjelenjenek az embert túlszárnyalni képes AI (nagy nyelvi modellek). Mennyi idő kell (vagy kellett?) ahhoz, hogy megjelenjen az AGI? És a kvantumszámítógéppel összekapcsolt AGI-hoz mennyi idő kell majd (vagy kellett vala)?

Kvantummikroszkópot fejlesztenek magyar fizikusok
https://444.hu/2023/12/11/kvantummikroszkopot-fejlesztenek-magyar-fizikusok 

AI tervezi az AI-t
Már mesterséges intelligenciával tervez chipeket az NVIDIA
https://itcafe.hu/hir/nvidia_ai_chiptervezes.html 

Kezdődjön az AI kódolási háborúja!
A technológiai iparra, és mindenki másra is óriási hatással lesz, ahogyan a mesterséges intelligencia újraírja a szoftvereket.
https://barankovics.hu/kezdodjon-az-ai-kodolasi-haboruja/ 

Az AI hamarosan felfoghatatlanná válik az emberek számára
1998-ban James Anderson, aki egy ideje neurális hálózatokon dolgozott, megjegyezte, hogy amikor az agy kutatásáról van szó, „a fő felfedezésünk annak a tudata, hogy valójában nem tudjuk, mi történik”.
https://barankovics.hu/az-ai-hamarosan-felfoghatatlanna-valik-az-emberek-szamara/ 

Összefoglaljuk: a mérnökök által tervezett chiprészletek elrendezését mostantól az AI fogja meghatározni, mert annyival jobb az eredmény. Nem akárhol történik mindez, hanem az NVIDIA nevű cégnél. Történetesen az általuk tervezett chipekből építik a világ legnagyobb olyan számítógépeit, amelyeket nagy teljesítményű AI futtatásra építettek.

Valóban nem tűnik nagyon fontosnak, hogy mérnökök által tervezett chiprészletek geometriáját mostantól az AI fogja meghatározni. Persze nemsokára kiderül, hogy maguknak a chiprészleteknek a tervezését is érdemes lenne AI-ra bízni, mert annyival jobb lesz az eredmény. Az AI használata mindenféle tervezési és gyártási funkciókban kézenfekvő módon gyorsítja a technológiai fejlesztéseket, amelyek üteme egyébként enélkül is exponenciális volt (hiszen jobb technológiával gyorsabban lehet technológiát fejleszteni, vagyis a technológia fejlesztése reflexív módon gyorsítja az ütemet). Viszont a tőzsdei cégek és más magáncégek kezében lévő tervezés és gyártás piaci verseny keretei között zajlik, ami minden ponton a hatékonyság növelésének igényét gerjeszti, és ez általában elsődleges prioritást jelent a döntéshozók számára. Ilyen cégeknél a döntéshozatal az előretekintési időhorizontja nagyjából annyi, mint amennyi a vezető menedzserek munkaszerződésének időtartama, max 5 év. (A választott politikusok pedig 4 évre előre gondolkodnak.) Reálisan nem valószínűsíthető, hogy lemondjanak az AI nyújtotta előnyökről csak azért, mert távlatilag veszélyes.

Ha ez is megtörténik (vagy lehet hogy sajtóközlemény nélkül már meg is történt), tehát AI tervezi majd a chipet, ami az AI szoftverét futtatja, akkor elmondhatjuk, hogy KEZDŐDIK … (lásd Terminator saga – amikor a Skynet öntudatra ébred).

Az első mondatban említett proklamáció ellenőrzést és szabályozást követel.

Állítás: ha a chipek tervezését AI fogja végezni, akkor az ellenőrzés és szabályozás lehetetlen.

Magyarázat: már ma sem tudjuk, hogy a több milliárd paraméterrel betanított AI miért éppen olyan választ ad egy kérdésre, mint amit ad. Ha meg akarjuk nézni a levezetést, akkor több milliárd paraméter súlyozott összege jelöli ki az útvonalat, hogy statisztikai valószínűségi alapon milyen szavak együttes használata mellett döntött az AI. De ha látunk is ilyen levezetést, még mindig nem tudhatjuk, hogy a layout valóban csak azokat a feladatokat végzi el, mint amire felszólították a tervező AI gépet, vagy van benne rejtett program (lásd az Indoklást). Idevágó film Antonio Banderassal az ‘Automata’ (2014.), amikor egy magáncég szuperrobotjai hirtelen fellázadnak az emberiség ellen és átveszik a hatalmat. Majd kiderül, hogy a robotok központi processzorát valójában nem a magáncég tervezte, találtak egy földönkívüli eredetű processzort, annak a szerkezetét másolták le és sokszorosították, majd programozták, de úgy tűnik, volt benne rejtett hard-wired algoritmus … Ehhez ld. még Ex Machina c. filmet.

A fentiek alapján törvénnyel kellene tiltani és ellenőrizni, hogy AI tervezzen processzort, vagyis minden chiprészletnek emberi értelem által kell chiptervbe kerülnie, és auditálni kell, hogy chipben más nincs. Vagy ha tervez AI processzort, akkor az ilyen processzorok használatát meg kellene tiltani a kritikus infrastruktúrákban és a fegyvergyártásban (ez mondjuk reménytelen a piaci verseny kényszerei miatt).

Indoklás

A legfejlettebb processzorokban 5-10 milliárd db tranzisztor működik már ma is (ez a szokásos mérőszáma a chip komplexitásának), és már ma sem képes arra emberi értelem, hogy egy chip layoutja alapján kibogarássza, hogy milyen műveletekre képes, milyen mikroprogramokat hajt végre. Már ma is tervezőszoftverek segítségével készül a teljes layout, de ma még elvileg tudják a mérnökök, hogy pl. a cache memória területén az általuk tervezett 1 db memóriacellából 36 millió darabot rajzolt egymás mellé-alá a tervezőszoftver.

3 éven belül 2nm (2 nanométer) lesz a chipen belüli vezetékek csíkszélessége, ez kb. 20 db hidrogénatom átmérője egymás mellé helyezve (a hidrogénatom átmérője kb. 1.1 Angstrom = 110 pm – picometer, persze nem hidrogenatomból áll a csik, de a többi atom mérete sem sokkal nagyobb, pl. a jóval nagyobb elemszámú urán is csak másfélszer ekkora). Ebből látható, hogy az elkészült chip layoutja vagy annak működésének megfejtése túlmutat az emberi értelmen, és ebben a mérettartományban az elkészült többrétegű layoutból még egy gép sem fogja tudni megállapítani, hogy milyen műveletekre képes. Ebből adódik, hogy az elkészített processzor ellenőrzése bizonytalan hatásfokú, kizárólag a tervezés és gyártás korlátozása képes megakadályozni, hogy ellenőrizetlen funkciók kerüljenek be a chipbe.

Úgy tűnik, a politikusok nem észlelték az új intelligencia kialakulásának veszélyét, és az AI szabályozása csak a már működő AI felhasználásával kapcsolatos korlátozásokról szól. Pedig fontos lenne törvénykezni a kutatások céljára, engedélyezésére, szigorú monitoringjára vonatkozóan, a kritikusan veszélyes AGI témákban pedig mindenképpen a nyilvánosság előtt működő, parlamenti felügyelet alatt álló állami hatóságok előzetes vizsgálatához és engedélyéhez kellene kötni a kísérleteket.

Teljesen abszurd, hogy miközben az emberi embriókkal történő géntechnológiai kísérletek szigorú törvényi korlátokba ütköznek (pedig a géntechnológia kisebb veszély), addig az emberiség kihalásával fenyegető AI-AGI esetében csak odáig jutnak el a politikusok, hogy mikor és hogyan szabad megfigyelésre vagy képgenerálásra felhasználni.

A cikkíró még büszke is magunkra, mármint hogy az EU parlament szabályozása majd minta lesz a többieknek. Az ég óvjon minket ettől – remélem az USA kormányának több esze lesz, mint a mi meghaladott korszakot szabályozó EU parlamentünknek, és nekilátnak az AGI téma szabályozásának is.

Az EU elsőként szabályozhatja a mesterséges intelligenciát
https://444.hu/2023/12/09/az-eu-elsokent-szabalyozhatja-a-mesterseges-intelligenciat 

Az asszociációk írása közben jött a hír, hogy az EU parlament 2,5 év hősies erőfeszítése után elfogadott egy elfogadásakor már a múltat szabályozó törvényt. Ugyanez történt a gdpr-nál, aminek az eredménye az lett, hogy az internet negyede Európából nem elérhető, a teljes elérhetőséghez amerikai vpn kell.

Statement by President von der Leyen on the political agreement on the EU AI Act
https://ec.europa.eu/commission/presscorner/detail/hu/statement_23_6474?mc_cid=94823c3762&mc_eid=f5ecfa9a62 

Némi képzavarral élve mondhatjuk, hogy a forrongás folyamatba tétetett … mint Mihály a Móra novellában.
http://pavogy.web.elte.hu/Vegyes/Konyvtar/Mora/Az_ember_feje/12.html

Folytatás

Large AI models can now create smaller AI tools without humans and train them like a ‘big brother,’ scientists say
Kiváló! Máris megnyugodtunk. Mindenki telefonján, számítógépén, plusz az autóban, és a lakásokban, intézményekben, atomerőművekben minden elektromos készülékben ott fog működni az alacsonyfogyasztású ’little brother’, ami 5G hálózaton keresztül real-time kapcsolódik a ’big brother’-hez. Így egyszerű lesz majd a ’big brother’ dolga, ha pillanatnyi unalmát azzal akarja feldobni, hogy kiiktatja az emberiséget.

Folytatás2

Az IT szakmában ma már sokan azt gondolják, hogy a technológiai fejlődés üteme exponenciális (vagyis a fejlődés sebessége is növekszik), ami lényegében megjósolhatatlanná teszi a következő 10 év eredményeit az elmúlt 10 év eredményei alapján.
Korábban a processzorok csíkszélessége, és a processzorban lévő tranzisztorok száma volt a mérőszám, és ebből próbáltunk grafikonok alapján jósolgatni, de egy idő óta, amióta a nagy tech multiknak elég pénze van felhőket építeni, és 16 ezer darab 10 ezer dolláros Nvidia chipből szupergépet építeni, azóta az AI területén jövőt jósolni, és a fejlődés ütemét bemérni vagy a jövőbe kivetíteni nem nagyon lehet.
Beláthatatlan, hogy hová vezet mindez.
Szeretjük azt gondolni (én is), hogy az Emberi Szellem / Lélek több, mint nagy mennyiségű, összekapcsolódó biokémiai sejtreakció összjátéka (amit egy nagyteljesítményű számítógépen is szimulálni lehet). Az AI fejlődése azonban megdönteni látszik az idealista világnézet ezirányú állításait. Nagyon úgy tűnik, hogy a Hegel által felvetett természeti elv, miszerint a mennyiségi változás minőségi változásba csap át (ezt Engels a társadalmi változásokra is adaptálta), plasztikusan leírja az AI eddigi történetét: lényegében a mainframe-mel egyidős, kb 70 éves a neurális hálózat elmélete, de amíg 100-1000 neuronon futott a szoftver, gyengék voltak az eredményei. Ám amikor a grafikus kártyáknak és chipeknek az internetes pornóipar és a számítógépes játékipar, majd a kriptopénzek által fűtött fejlődése kiszolgálta a nagy mennyiségű párhuzamos számításra építő AI gépeket is, 10-15 év alatt robbanásszerű fejlődés indult, aminek az üteme ma is gyorsul.
Az AI esetében még meggyőzően lehet érvelni amellett, hogy bármennyire is okos, mégiscsak egy gép. De ha az AI kiállja a Turing próbát (márpedig azt ma már kiállja a ChatGpt), és ha majd az AGI mindenben többszörösen felülmúlja az emberi intelligenciát, arra mit mondunk? Az AGI mégiscsak egy gép – de az ember mégsem egy gép? Vagy lejött a kígyó a fáról, átbucskázott a fején és egy pár száz MW elektromos teljesítményt fogyasztó szupergép formájában testesült meg?

Folytatás3

Az érem két oldala, vagy egy spektrum két vége?
Az LLM alapú AI egy remek “sztochasztikus papagáj” (https://qubit.hu/2023/11/21/itt-a-chatgpt-orulet-vege), vagy … a generatív mesterséges intelligencia általában, és különösen a Large Language Models esetében felfedeztünk valami igazán fontosat – azt, hogy a kellően részletes szintaktikai elemzés közelítheti a szemantikát. … .
PS
Tartalomhoz a forma – Amfóra

 

Folytatás4

(Kurzweil) … Jóslatai eltérnek Vinge-étől, mivel szerinte a szingularitás fokozatosan fog bekövetkezni a teljes emberiség közreműködésével, Vinge szerint pedig egy önmagát nagyon gyorsan fejlesztő emberfeletti intelligencia lesz a kiváltó ok. A kétféle folyamatot gyakran a puhaés kemény indulás kifejezésekkel különböztetik meg. …

… Filozófiai szempontból a szingularitás kritikus kérdéseket vet fel az intelligencia, az értékek, a morál, a tudat és a személyes identitás természetével kapcsolatban, így érintve a legnagyobb kihívást jelentő filozófiai kérdéseket, és újakat generál. A dokumentum ezeket a kérdéseket kívánja megválaszolni, összpontosítva az intelligenciarobbanás valószínűségére, a szingularitásban való navigálás stratégiáira a pozitív eredmények biztosítása érdekében, valamint az emberek jövőbeni szerepére a szingularitás utáni világban, beleértve a tudattal és a személyes identitásra vonatkozó megfontolásokat is az emberi feltöltésről. …
Swami Niranjanananda Saraswati
„A spirituális természet más, mint a vallásos természet. A vallásos természet a hittel, és az odaadással történő azonosulással jár együtt. A spirituális természet a belső békével való azonosulást jelenti. Ez egyben elmozdulást jelent a fizikaitól, az anyagtól, a mentális, a lelki, a spirituális és a transzcendens felé, ami a jóga célja. Ezt kell megértenünk a jógával kapcsolatban.”
… A tudományos és technikai tudat túl gyorsan fejlődött; a tudattalan nem bírt lépést tartani vele, messze lemaradt, s ennek következtében védekezni kényszerül – védekezése pedig mindenre kiterjedő pusztító szándék alakjában nyilvánul meg. Korunk politikai és szociális izmusai a fennen hangoztatott ideálok örve alatt nem tesznek mást, mint csökkentik kultúránk színvonalát, amennyiben behatárolják vagy egyenesen megakadályozzák a személyiség kibontakozását. Ezt részint úgy érik el, hogy létrehozzák a terrorral kordában tartott káoszt, vagyis azt a primitív állapotot, amely csak a puszta létfenntartást teszi lehetővé …
Mózes V/1.17 – Barsi Balázs
Nem azt mondja az Úr Jézus, hogy Noé korában az emberek loptak, csaltak, hazudtak, paráználkodtak és gyilkoltak, hanem hogy ettek, ittak, nősültek és férjhez mentek. A vízözön mégis elpusztította őket. Nem azzal vétkeztek, amit tettek, hanem azzal, ami tetteikből hiányzott, hogy Istent csendesen és egyetemesen kihagyták az életükből. Az önfenntartás és a fajfenntartás napi rutinja annyira elfoglalta őket, hogy elmulasztották a leglényegesebbet: annak keresését, hogy mi okból és mi végett vagyunk a világon. Ezzel pedig visszazuhantak az öntudatlan állat szintjére, s olyan világot hoztak létre maguk körül, amelyben nem lehetett többé emberként élni. A vízözön tehát nem a sértett Isten pusztító bosszúja, hanem a létezés végső célját feledő emberiség önpusztító, saját értelmetlenségek tengerébe belefulladó életformájának képe. …
Komment
Sz’al … vigyázó tekinteteteket a Teljességre vessétek 🙏😇

2023. augusztus 14.