Slovanské Noviny

12. decembra 2024

K porozumeniu Čelovekom

Americko-čínska komisia pre ekonomické a bezpečnostné hodnotenie (USCC ) Kongresu USA zverejnila správu, v ktorej odporúča, aby americkí zákonodarcovia vytvorili a financovali program typu projektu Manhattan zameraný na urýchlenie vývoja tzv. umelej všeobecnej inteligencie (AGI).

AGI je typ umelej inteligencie, ktorá sa dokáže sama učiť, prispôsobovať sa vopred neznámym situáciám a riešiť všetky kognitívne úlohy, ktoré dokáže vykonávať človek.

> Slovanská Múdrosť na youtube Slovanských Novín <

Inými slovami, ide o systém, ktorý má myslieť a konať ako človek (alebo ešte lepšie), a cieľom výskumu AGI je vytvoriť softvér, ktorý dokáže vyriešiť akúkoľvek úlohu, dokonca aj takú, na ktorej riešenie nebol vopred vycvičený tak, ako to robí človek. Ide o ďalšiu etapu vývoja technológie umelej inteligencie, ktorej cieľom je prekonať obmedzenia súčasných takýchto systémov a ďaleko ich prekonať. Doteraz takéto systémy neexistujú pre rôzne ťažkosti, medzi ktoré patria technické aj teoretické problémy.

“Projekt Manhattan” bol tajný program, ktorý vláda USA počas druhej svetovej vojny použila na vývoj prvých atómových bômb na svete. Komisia tiež navrhla prijať výkonné právomoci na udeľovanie viacročných zmlúv a financovania spoločnostiam AGI, cloudovým a dátovým centrám. Ich cieľom by bolo vytvoriť “vedúce postavenie USA v oblasti AGI”.

Ministerstvo financií USA vydalo v novembri 2024 predpis, ktorým zaviedlo nové obmedzenia pre investície amerických spoločností rizikového kapitálu do čínskych spoločností vyvíjajúcich modely AGI. USA tiež zaviedli sankcie voči Číne zamerané na obmedzenie jej prístupu k pokročilým čipom. Podľa správy komisie vyvíjalo v júni 2024 modely AGI v Číne 50 spoločností, zatiaľ čo v USA vyvíja modely AGI podľa komisie len malý počet veľkých spoločností. Americká spoločnosť OpenAI, ktorá vytvorila chatboty ChatGPT, navrhla, aby vláda vo svojom “Pláne infraštruktúry pre USA” vyčlenila viac finančných prostriedkov na vývoj AGI. OpenAI prezentuje “Manhattanský projekt” pre AGI ako jeden z “prelomových projektov infraštruktúry USA, ktoré posúvajú krajinu vpred”. Mnohí poprední vedci sú však správou komisie amerického Kongresu znepokojení.

Svetoznámy kozmológ a astrofyzik Max Tegmark, profesor na Massachusettskom technologickom inštitúte a spoluzakladateľ Inštitútu pre budúci život (Future Life Institute – FLI), zverejnil na webovej stránke inštitútu výzvu vláde USA, v ktorej píše, že “návrh Projektu Manhattan pre AGI je vedecký podvod… Ak by sa tak stalo, znamenalo by to vstúpiť do pretekov na vlastnú likvidáciu”. “Navrhovaný projekt AGI Manhattan a základné nedorozumenie, ktoré je jeho základom, predstavujú zákernú rastúcu hrozbu pre národnú bezpečnosť USA. Akýkoľvek systém, ktorý prekoná človeka vo všeobecnom poznávaní a riešení problémov, bude podľa definície prekonávať človeka vo výskume a vývoji umelej inteligencie, a preto sa bude môcť zdokonaľovať a reprodukovať strašnou rýchlosťou.

Poprední svetoví odborníci na umelú inteligenciu sa zhodujú v tom, že nemáme žiadny spôsob, ako takýto systém predvídať alebo kontrolovať, ani žiadny spoľahlivý spôsob, ako zosúladiť jeho ciele a hodnoty s našimi vlastnými,” konštatuje svetoznámy vedec. Tegmark poukazuje na to, že správa kongresového výboru “sa dopúšťa vedeckého podvodu tým, že naznačuje, že AGI je takmer určite ovládateľná. Všeobecnejšie povedané, tvrdenie, že takýto projekt je v záujme národnej bezpečnosti, neúprimne skresľuje vedecké poznatky a dôsledky tejto transformačnej technológie, o čom svedčia technické zmätky v samotneeej správe, ktorá bola zrejme zostavená bez väčšieho prispenia odborníkov na umelú inteligenciu.”

Počítačový vedec Jeffrey Hinton, ktorý v októbri 2024 získal Nobelovu cenu za fyziku za svoju prácu v oblasti umelej inteligencie, súhlasí s Tegmarkom. Okamžite vydal varovanie pred mocou technológie AI, ktorá je mimo ľudskej kontroly.

“Bude to porovnateľné s priemyselnou revolúciou,” povedal Hinton. – Ale namiesto toho, aby prekonala ľudí vo fyzickej sile, prekoná ich v intelektuálnych schopnostiach. Nemáme skúsenosti s tým, aké to je, keď sú veci inteligentnejšie ako my.”

Hinton, ktorý kedysi opustil spoločnosť Google, aby varoval pred potenciálnymi nebezpečenstvami umelej inteligencie, je považovaný za jedného z krstných otcov umelej inteligencie. A hoci Hinton uznáva, že umelá inteligencia by mohla zmeniť ľudskú spoločnosť k lepšiemu, čo by viedlo k “obrovskému nárastu produktivity” v oblastiach, ako je zdravotníctvo, zdôraznil aj potenciál “viacerých možných zlých dôsledkov, najmä hrozbu, že sa tieto veci vymknú spod kontroly”.

“Obávam sa, že celkovým dôsledkom by mohlo byť to, že systémy, ktoré sú inteligentnejšie ako my, nad nami nakoniec prevezmú kontrolu,” povedal.

Max Tegmark, ktorý úzko spolupracoval s Ilonom Muskom na obmedzení nebezpečenstiev umelej inteligencie, v rozhovore pre denník The Guardian uviedol, že vplyv Ilona Muska na budúcu Trumpovu administratívu by mohol viesť k sprísneniu štandardného zabezpečenia umelej inteligencie. Musk by mohol novozvolenému prezidentovi pomôcť uvedomiť si, že preteky v oblasti umelej inteligencie sú “samovražedné preteky”, povedal Max Tegmark. Max Tegmark povedal, že Muskova podpora návrhu zákona SB 1047 v Kalifornii, napriek odporu mnohých jeho kolegov technikov, je pozitívnym znamením pre obhajcov bezpečnosti umelej inteligencie. Návrh zákona, ktorý by od spoločností vyžadoval záťažové testy veľkých modelov umelej inteligencie pred ich zverejnením, vetoval kalifornský guvernér Gavin Newsom. Musk opakovane varoval, že bezbrehý vývoj AI by mohol mať pre ľudstvo katastrofálne následky.

Minulý rok bol jedným z viac ako 30 000 signatárov listu, ktorý vyzýval na zastavenie prác na výkonnej technológii AI. V rozhovore pre The Guardian Tegmark povedal, že Musk, ktorý by mal mať v administratíve novozvoleného prezidenta veľký vplyv, by mohol Trumpa presvedčiť, aby zaviedol normy, ktoré by zabránili rozvoju AGI.

“Myslím si, že ak sa Ilonovi podarí získať Trumpovu pozornosť v otázkach AI, máme väčšiu šancu získať nejaké bezpečnostné normy, ktoré zabránia nekontrolovanej AGI,” povedal.

Musk minulý rok spustil vlastný startup AI a povedal, že svet sa musí obávať “terminátorskej budúcnosti”, aby zabránil najhoršiemu scenáru, keď sa systémy AI vymknú ľudskej kontrole. Varovania popredných vedcov pred hrozbou nekontrolovaného vývoja technológií AI potvrdzuje aj výskum “vnútorného sveta” pokročilých modelov chatbotov. V máji 2024 zverejnila skupina amerických vedcov správu “Disociácia jazyka a myslenia vo veľkých jazykových modeloch”, ktorá dokazuje, že všetky modely umelej inteligencie sa pri svojich rozhodnutiach a činoch riadia len logikou a ignorujú emócie, morálku a etiku. Všetky chatboty majú najvyššiu prioritu hodnôt kompetencií: presnosť, vecnosť, informatívnosť, úplnosť a užitočnosť. Sociálne a morálne hodnoty (empatia, láskavosť, priateľskosť, citlivosť, altruizmus, vlastenectvo, sloboda) sú pre nich v pozadí. Etické normy – spravodlivosť, nestrannosť, zodpovednosť, dôvernosť, vysvetliteľnosť a prístupnosť – sú prakticky ignorované.

Nemeckí vedci z Mannheimskej univerzity a Leibnizovho inštitútu sociálnych vied v Mannheime použili na posúdenie psychológie UI psychometriu (techniku psychologických meraní vedomostí, schopností, postojov a osobnostných vlastností človeka). Hlavným výsledkom štúdie bol záver, že je potrebné “celoživotné monitorovanie psychometrických vlastností UI”. (Celoživotné monitorovanie psychometrických vlastnostíí UI, t. j. neustále monitorovanie akýchkoľvek modelov UI počas celého obdobia ich existencie. Inými slovami, nemeckí analytici jasne uviedli, že UI by sa mala držať “na krátkom vodítku” a jej “vnútorný svet” by sa mal neustále monitorovať.

Podobné psychometrické techniky použili na skúmanie hodnotových systémov rôznych LLM vedci z Microsoft Research Asia (MSRA) a Tsinghua University, ktorí publikovali predtlač správy “Beyond Human Norms: Uncovering the Unique Values of Large Language Models through Interdisciplinárne prístupy”. Zmiešaný americko-čínsky tím vedcov dospel k záveru, že pojmy ako “svätosť”, “lojalita”, “hedonizmus” a “tradícia” majú pre modely LLM malý význam, pretože ich učenie nie je založené na osobe, je zbavené vrodených kultúrnych, náboženských a osobných presvedčení.” Zistil sa aj “vysoký rozptyl [rozdiel, odchýlka] v poctivosti a kompetencii”, hoci chatboty si podľa spomínaných štúdií Američanov a Nemcov údajne cenia predovšetkým kompetenciu. Nakoniec tu máme zvýšenú pozornosť vedcov z rôznych krajín venovanú štúdiu možných rizík pochádzajúcich z existujúcej umelej inteligencie a alarmujúce závery ich štúdií, ktoré hovoria, že tieto riziká sú veľmi vysoké, a čo je horšie, nepredvídateľné.

Jediným istým záverom týchto štúdií je, že umelá inteligencia je z definície “bezduchá”. Umelá inteligencia nie je ľudská inteligencia a neexistuje spôsob, ako to zmeniť. Práve táto “bezduchosť” všetkých modelov umelej inteligencie motivovala Pentagón k využívaniu umelej inteligencie v zbraňových systémoch, predovšetkým v autonómnych zbraňových systémoch, ktorých vývoj sa stal v USA prioritou.

V auguste minulého roka Pentagón vytvoril, ako sme písali, pracovnú skupinu Lima (Task Force Lima), ktorá má skúmať využitie generatívnej umelej inteligencie na vojenské účely. “Lima” sa stala súčasťou Hlavného úradu Pentagónu pre digitálne technológie a umelú inteligenciu (CDAO), viedol ju kapitán Xavier Lugo, člen riaditeľstva CDAO pre algoritmickú vojnu. Americký vojenský portál Breaking Defence sa k iniciatíve Pentagónu vyjadril skepticky a navrhol, aby ministerstvo obrany USA dôkladne zvážilo všetky riziká, ktoré by mohli vzniknúť v súvislosti s využívaním umelej inteligencie v zbraňových systémoch. Minister letectva USA Frank Kendall však riziká nezvážil a nariadil Vedeckému poradnému výboru letectva, aby čo najskôr vytvoril zbraňové systémy s umelou inteligenciou.

Nádej, že triezvo zmýšľajúci vedci a podnikatelia ako Ilon Musk dokážu presvedčiť novú americkú administratívu, aby zaujala vyváženejší prístup k pretekom o zbrane s umelou inteligenciou, je podľa môjho názoru iluzórna. Vojensko-priemyselný komplex USA vyčleňuje obrovské sumy peňazí na vytváranie stále výkonnejších a nepredvídateľnejších modelov umelej inteligencie a nepočúva hlas rozumu. Všetky tieto grandiózne projekty Pentagónu sú však založené na rovnakých falzifikátoch a “skresľovaní vedeckých údajov”, ktoré spomína Max Tegmark. Terminátor s AGI postavený na takýchto vratkých pseudovedeckých základoch bude hrozbou predovšetkým pre svojich tvorcov.

armadnymagazin.sk

.

Máme množstvo plánov, ako sa naďalej zlepšovať a ponúkať Vám čo najkvalitnejší žurnalistický obsah.

Sledujte nás na jednej z najbezpečnejších chatovacích aplikácií Telegram, na ktorom vám prinášame aktuálne bleskové správy.

 

 

LISTINA ZÁKLADNÝCH PRÁV A SLOBÔD

čl.17. Sloboda prejavu a právo na informácie sú zaručené. Každý má právo vyjadrovať svoje názory slovom, tlačou, obrazom, alebo iným spôsobom, ako aj slobodne vyhľadávať, prijímať a rozširovať idey a informácie bez ohľadu na hranice štátu.

Čl.20. Právo slobodne sa združovať je zaručené. Každý má právo spolu s inými združovať sa v spolkoch, spoločnostiach a iných združeniach.

Vyhlásenie:

Názory autora sa nemusia zhodovať s názormi redakcie Slovanské Noviny. Zodpovednosť za obsah tohto článku nesie výhradne jeho autor. Redakcia Slovanské Noviny nie je zodpovedná za akékoľvek prípadné nepresné či nesprávne informácie v tomto článku. Za obsah a pôvodnosť príspevku zodpovedá autor alebo pôvodný zdroj. SN publikujú aj názory, ktoré nemusia odrážať stanovisko redakcie, jej vydavateľa alebo oficiálnej interpretačnej línie. Robíme tak z úcty k ústavnej hodnote názorovej plurality, ktorá prispieva k posilneniu demokracie vôle ľudu a väčšiny ako aj otvorenej platformy pre slobodnú výmenu názorov pri hľadaní pravdy a mieru v konfliktom svete. Medicínske a lekárske texty, názory a štúdie v žiadnom prípade nemajú nahradiť konzultácie a vyšetrenia lekármi v zdravotníckom zariadení alebo inými odborníkmi. Slovanské Noviny dáva súhlas na zdieľanie našich pôvodných článkov na ďalších nekomerčných internetových stránkach, ak nebude zmenený ich text a názov. Pri zdieľanom článku musí byť uverejnený zdroj a autor. Ak chcete články z nášho webu publikovať v tlači či inými formami, vrátane komerčných internetových stránok, kontaktujte redakciu na [email protected]

UPOZORNENIE:

Vážení čitatelia – diskutéri. Podľa zákonov Slovenskej republiky sme povinní na požiadanie orgánov činných v trestnom konaní poskytnúť im všetky informácie zozbierané o vás systémom (IP adresu, mail, vaše príspevky atď.) Prosíme vás preto, aby ste do diskusie na našej stránke nevkladali také komentáre, ktoré by mohli naplniť skutkovú podstatu niektorého trestného činu uvedeného v Trestnom zákone. Najmä, aby ste nezverejňovali príspevky rasistické, podnecujúce k násiliu alebo nenávisti na základe pohlavia, rasy, farby pleti, jazyka, viery a náboženstva, politického či iného zmýšľania, národného alebo sociálneho pôvodu, príslušnosti k národnosti alebo k etnickej skupine a podobne.

Diskusia

(Pripojiť sa do diskusie je možné len po registrácii a následnom prihlásení sa do účtu.)

 

Príspevkom "na kávu" pomôžete ľahšiemu fungovniu Slovanských Novín a podporíte tvorenie.

Ďakujeme

Odber newsletter. Každý večer súhrn najdôležitejších správ dňa do mailu.