Slovanské Noviny

22. novembra 2024

K porozumeniu Čelovekom

Vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov umelej inteligencie (AI) výkonnejších ako GPT-4.

Systémy AI s ľudskou konkurenčnou inteligenciou môžu predstavovať vážne riziká pre spoločnosť a ľudstvo, ako ukázal rozsiahly výskum [1] a potvrdili to špičkové laboratóriá AI. [2]

Ako sa uvádza v široko uznávaných princípoch umelej inteligencie Asilomar , pokročilá umelá inteligencia by mohla predstavovať hlbokú zmenu v histórii života na Zemi a mala by byť plánovaná a riadená s primeranou starostlivosťou a zdrojmi.

> Slovanská Múdrosť na youtube Slovanských Novín <

Žiaľ, takáto úroveň plánovania a riadenia sa neuskutočňuje, aj keď v posledných mesiacoch boli laboratóriá AI zamknuté v pretekoch, ktoré sa vymkli kontrole, aby vyvinuli a nasadili stále výkonnejšie digitálne mysle, ktorým nikto – dokonca ani ich tvorcovia – nerozumie. predvídať alebo spoľahlivo kontrolovať.

Súčasné systémy AI sa teraz stávajú konkurencieschopnými pre ľudí vo všeobecných úlohách [3] a musíme si položiť otázku: Mali by sme nechať stroje zaplaviť naše informačné kanály propagandou a nepravdou?

Mali by sme automatizovať všetky úlohy, vrátane tých, ktoré napĺňajú?

Mali by sme rozvíjať neľudské mysle, ktoré by nás mohli časom prevýšiť, prekabátiť, zastarať a nahradiť nás?

Mali by sme riskovať stratu kontroly nad našou civilizáciou? Takéto rozhodnutia sa nesmú delegovať na nevolených technologických lídrov.

Výkonné systémy umelej inteligencie by sa mali vyvíjať len vtedy, keď sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné.

Táto dôvera musí byť dobre odôvodnená a musí sa zvyšovať s veľkosťou potenciálnych účinkov systému. Nedávne vyhlásenie Open AI týkajúce sa umelej všeobecnej inteligencie uvádza, že „V určitom bode môže byť dôležité získať nezávislú kontrolu pred začatím trénovania budúcich systémov a pre čo najpokročilejšie úsilie dohodnúť sa na obmedzení tempa rastu výpočtovej techniky používanej na vytváranie nových modely.” Súhlasíme. Ten bod je teraz.

Musia byť dôveryhodné a lojálne

Preto vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov AI výkonnejších ako GPT-4 .

Táto pauza by mala byť verejná a overiteľná a mala by zahŕňať všetkých kľúčových aktérov. Ak sa takáto pauza nedá uzákoniť rýchlo, vlády by mali zasiahnuť a zaviesť moratórium.

Laboratóriá AI a nezávislí experti by mali využiť túto pauzu na spoločný vývoj a implementáciu súboru zdieľaných bezpečnostných protokolov pre pokročilý návrh a vývoj AI, ktoré sú prísne kontrolované a kontrolované nezávislými externými odborníkmi.

Tieto protokoly by mali zabezpečiť, že systémy, ktoré sa k nim pridŕžajú, sú bez akýchkoľvek pochybností bezpečné. [4] Neznamená to pauzu vo vývoji AI vo všeobecnosti, iba krok späť od nebezpečných pretekov k stále väčším nepredvídateľným modelom čiernej skrinky s novými schopnosťami.

Výskum a vývoj AI by sa mal preorientovať na to, aby boli dnešné výkonné, najmodernejšie systémy presnejšie, bezpečnejšie, interpretovateľné, transparentné, robustné, zosúladené, dôveryhodné a lojálne.

Súčasne musia vývojári AI spolupracovať s tvorcami politiky, aby dramaticky urýchlili vývoj robustných systémov riadenia AI.

Mali by zahŕňať minimálne:

  • nové a schopné regulačné orgány venované AI;
  • dohľad a sledovanie vysoko výkonných systémov AI a veľkých zdrojov výpočtových schopností;
  • systémy proveniencie a vodoznaku, ktoré pomáhajú rozlíšiť skutočné od syntetických a sledovať úniky modelov;
  • robustný audítorský a certifikačný ekosystém;
  • zodpovednosť za škody spôsobené AI; r
  • ozsiahle verejné financovanie výskumu technickej bezpečnosti AI;
  • a dobre vybavené inštitúcie na zvládanie dramatických ekonomických a politických narušení (najmä demokracie), ktoré AI spôsobí.

Ľudstvo sa môže tešiť z prosperujúcej budúcnosti s AI. Po úspešnom vytvorení výkonných systémov umelej inteligencie si teraz môžeme užiť „leto umelej inteligencie“, v ktorom žneme odmeny, vytvárame tieto systémy pre jasný prospech všetkých a dávame spoločnosti šancu prispôsobiť sa. Spoločnosť sa pozastavila nad ďalšími technológiami s potenciálne katastrofálnymi dopadmi na spoločnosť. [5] Môžeme tak urobiť tu. Užime si dlhé AI leto, neponáhľajme sa nepripravení na jeseň.

Pôvodným zdrojom tohto článku je Future of Life Institute

Poznámky[1] Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, marec). O nebezpečenstvách stochastických papagájov: Môžu byť jazykové modely príliš veľké?. In Zborník z konferencie ACM 2021 o spravodlivosti, zodpovednosti a transparentnosti (s. 610-623).

Bostrom, N. (2016). Superinteligencia. Oxford University Press.

Bucknall, BS a Dori-Hacohen, S. (2022, júl). Súčasná a krátkodobá AI ako potenciálny existenčný rizikový faktor. In Zborník z konferencie AAAI/ACM 2022 o AI, etike a spoločnosti (s. 119-129).

Carlsmith, J. (2022). Je umelá inteligencia na hľadanie sily existenčným rizikom? . arXiv predtlač arXiv:2206.13353.

Christian, B. (2020). Problém zosúladenia: strojové učenie a ľudské hodnoty. Norton & Company.

Cohen, M. a kol. (2022). Do poskytovania odmeny zasahujú pokročilé umelé agenty. AI Magazine , 43 (3) (str. 282-293).

Eloundou, T., a kol. (2023). GPT sú GPT: Včasný pohľad na potenciál vplyvu veľkých jazykových modelov na trh práce.

Hendrycks, D. a Mazeika, M. (2022). Analýza X-rizika pre výskum AI . arXiv predtlač arXiv:2206.05862.

Ngo, R. (2022). Problém zosúladenia z perspektívy hlbokého učenia. arXiv predtlač arXiv:2209.00626.

Russell, S. (2019). Kompatibilné s ľuďmi: Umelá inteligencia a problém kontroly. Viking.

Tegmark, M. (2017). Život 3.0: Byť človekom vo veku umelej inteligencie. Knopf.

Weidinger, L. a kol. (2021). Etické a sociálne riziká poškodenia z jazykových modelov. arXiv predtlač arXiv:2112.04359.[2] Ordonez, V. a kol. (2023, 16. marec). Generálny riaditeľ OpenAI Sam Altman hovorí, že AI pretvorí spoločnosť, uznáva riziká: „Trochu sa toho bojím“ . Správy ABC.

Perrigo, B. (2023, 12. januára). Generálny riaditeľ DeepMind Demis Hassabis vyzýva na opatrnosť v súvislosti s AI . čas.[3] Bubeck, S. a kol. (2023). Sparks of Artificial General Intelligence: Rané experimenty s GPT-4 . arXiv:2303.12712.

OpenAI (2023). Technická správa GPT-4 . arXiv: 2303.08774.[4] Existuje rozsiahly právny precedens – napríklad široko prijaté Zásady umelej inteligencie OECD vyžadujú, aby systémy umelej inteligencie „fungovali primerane a nepredstavovali neprimerané bezpečnostné riziko“.[5] Príklady zahŕňajú klonovanie ľudí, modifikáciu ľudskej zárodočnej línie, výskum zisku z funkcie a eugeniku.

skspravy

.

Máme množstvo plánov, ako sa naďalej zlepšovať a ponúkať Vám čo najkvalitnejší žurnalistický obsah.

Sledujte nás na jednej z najbezpečnejších chatovacích aplikácií Telegram, na ktorom vám prinášame aktuálne bleskové správy.

 

 

LISTINA ZÁKLADNÝCH PRÁV A SLOBÔD

čl.17. Sloboda prejavu a právo na informácie sú zaručené. Každý má právo vyjadrovať svoje názory slovom, tlačou, obrazom, alebo iným spôsobom, ako aj slobodne vyhľadávať, prijímať a rozširovať idey a informácie bez ohľadu na hranice štátu.

Čl.20. Právo slobodne sa združovať je zaručené. Každý má právo spolu s inými združovať sa v spolkoch, spoločnostiach a iných združeniach.

Vyhlásenie:

Názory autora sa nemusia zhodovať s názormi redakcie Slovanské Noviny. Zodpovednosť za obsah tohto článku nesie výhradne jeho autor. Redakcia Slovanské Noviny nie je zodpovedná za akékoľvek prípadné nepresné či nesprávne informácie v tomto článku. Za obsah a pôvodnosť príspevku zodpovedá autor alebo pôvodný zdroj. SN publikujú aj názory, ktoré nemusia odrážať stanovisko redakcie, jej vydavateľa alebo oficiálnej interpretačnej línie. Robíme tak z úcty k ústavnej hodnote názorovej plurality, ktorá prispieva k posilneniu demokracie vôle ľudu a väčšiny ako aj otvorenej platformy pre slobodnú výmenu názorov pri hľadaní pravdy a mieru v konfliktom svete. Medicínske a lekárske texty, názory a štúdie v žiadnom prípade nemajú nahradiť konzultácie a vyšetrenia lekármi v zdravotníckom zariadení alebo inými odborníkmi. Slovanské Noviny dáva súhlas na zdieľanie našich pôvodných článkov na ďalších nekomerčných internetových stránkach, ak nebude zmenený ich text a názov. Pri zdieľanom článku musí byť uverejnený zdroj a autor. Ak chcete články z nášho webu publikovať v tlači či inými formami, vrátane komerčných internetových stránok, kontaktujte redakciu na [email protected]

UPOZORNENIE:

Vážení čitatelia – diskutéri. Podľa zákonov Slovenskej republiky sme povinní na požiadanie orgánov činných v trestnom konaní poskytnúť im všetky informácie zozbierané o vás systémom (IP adresu, mail, vaše príspevky atď.) Prosíme vás preto, aby ste do diskusie na našej stránke nevkladali také komentáre, ktoré by mohli naplniť skutkovú podstatu niektorého trestného činu uvedeného v Trestnom zákone. Najmä, aby ste nezverejňovali príspevky rasistické, podnecujúce k násiliu alebo nenávisti na základe pohlavia, rasy, farby pleti, jazyka, viery a náboženstva, politického či iného zmýšľania, národného alebo sociálneho pôvodu, príslušnosti k národnosti alebo k etnickej skupine a podobne.

Diskusia

(Pripojiť sa do diskusie je možné len po registrácii a následnom prihlásení sa do účtu.)

 

Príspevkom "na kávu" pomôžete ľahšiemu fungovniu Slovanských Novín a podporíte tvorenie.

Ďakujeme

Odber newsletter. Každý večer súhrn najdôležitejších správ dňa do mailu.