Vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov umelej inteligencie (AI) výkonnejších ako GPT-4.

Systémy AI s ľudskou konkurenčnou inteligenciou môžu predstavovať vážne riziká pre spoločnosť a ľudstvo, ako ukázal rozsiahly výskum [1] a potvrdili to špičkové laboratóriá AI. [2]
Ako sa uvádza v široko uznávaných princípoch umelej inteligencie Asilomar , pokročilá umelá inteligencia by mohla predstavovať hlbokú zmenu v histórii života na Zemi a mala by byť plánovaná a riadená s primeranou starostlivosťou a zdrojmi.
Žiaľ, takáto úroveň plánovania a riadenia sa neuskutočňuje, aj keď v posledných mesiacoch boli laboratóriá AI zamknuté v pretekoch, ktoré sa vymkli kontrole, aby vyvinuli a nasadili stále výkonnejšie digitálne mysle, ktorým nikto – dokonca ani ich tvorcovia – nerozumie. predvídať alebo spoľahlivo kontrolovať.
Súčasné systémy AI sa teraz stávajú konkurencieschopnými pre ľudí vo všeobecných úlohách [3] a musíme si položiť otázku: Mali by sme nechať stroje zaplaviť naše informačné kanály propagandou a nepravdou?
Mali by sme automatizovať všetky úlohy, vrátane tých, ktoré napĺňajú?
Mali by sme rozvíjať neľudské mysle, ktoré by nás mohli časom prevýšiť, prekabátiť, zastarať a nahradiť nás?
Mali by sme riskovať stratu kontroly nad našou civilizáciou? Takéto rozhodnutia sa nesmú delegovať na nevolených technologických lídrov.
Výkonné systémy umelej inteligencie by sa mali vyvíjať len vtedy, keď sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné.
Táto dôvera musí byť dobre odôvodnená a musí sa zvyšovať s veľkosťou potenciálnych účinkov systému. Nedávne vyhlásenie Open AI týkajúce sa umelej všeobecnej inteligencie uvádza, že „V určitom bode môže byť dôležité získať nezávislú kontrolu pred začatím trénovania budúcich systémov a pre čo najpokročilejšie úsilie dohodnúť sa na obmedzení tempa rastu výpočtovej techniky používanej na vytváranie nových modely.” Súhlasíme. Ten bod je teraz.
Musia byť dôveryhodné a lojálne
Preto vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov AI výkonnejších ako GPT-4 .
Táto pauza by mala byť verejná a overiteľná a mala by zahŕňať všetkých kľúčových aktérov. Ak sa takáto pauza nedá uzákoniť rýchlo, vlády by mali zasiahnuť a zaviesť moratórium.
Laboratóriá AI a nezávislí experti by mali využiť túto pauzu na spoločný vývoj a implementáciu súboru zdieľaných bezpečnostných protokolov pre pokročilý návrh a vývoj AI, ktoré sú prísne kontrolované a kontrolované nezávislými externými odborníkmi.
Tieto protokoly by mali zabezpečiť, že systémy, ktoré sa k nim pridŕžajú, sú bez akýchkoľvek pochybností bezpečné. [4] Neznamená to pauzu vo vývoji AI vo všeobecnosti, iba krok späť od nebezpečných pretekov k stále väčším nepredvídateľným modelom čiernej skrinky s novými schopnosťami.
Výskum a vývoj AI by sa mal preorientovať na to, aby boli dnešné výkonné, najmodernejšie systémy presnejšie, bezpečnejšie, interpretovateľné, transparentné, robustné, zosúladené, dôveryhodné a lojálne.
Súčasne musia vývojári AI spolupracovať s tvorcami politiky, aby dramaticky urýchlili vývoj robustných systémov riadenia AI.
Mali by zahŕňať minimálne:
- nové a schopné regulačné orgány venované AI;
- dohľad a sledovanie vysoko výkonných systémov AI a veľkých zdrojov výpočtových schopností;
- systémy proveniencie a vodoznaku, ktoré pomáhajú rozlíšiť skutočné od syntetických a sledovať úniky modelov;
- robustný audítorský a certifikačný ekosystém;
- zodpovednosť za škody spôsobené AI; r
- ozsiahle verejné financovanie výskumu technickej bezpečnosti AI;
- a dobre vybavené inštitúcie na zvládanie dramatických ekonomických a politických narušení (najmä demokracie), ktoré AI spôsobí.
Ľudstvo sa môže tešiť z prosperujúcej budúcnosti s AI. Po úspešnom vytvorení výkonných systémov umelej inteligencie si teraz môžeme užiť „leto umelej inteligencie“, v ktorom žneme odmeny, vytvárame tieto systémy pre jasný prospech všetkých a dávame spoločnosti šancu prispôsobiť sa. Spoločnosť sa pozastavila nad ďalšími technológiami s potenciálne katastrofálnymi dopadmi na spoločnosť. [5] Môžeme tak urobiť tu. Užime si dlhé AI leto, neponáhľajme sa nepripravení na jeseň.
Pôvodným zdrojom tohto článku je Future of Life Institute
Poznámky[1] Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, marec). O nebezpečenstvách stochastických papagájov: Môžu byť jazykové modely príliš veľké?. In Zborník z konferencie ACM 2021 o spravodlivosti, zodpovednosti a transparentnosti (s. 610-623).
Bostrom, N. (2016). Superinteligencia. Oxford University Press.
Bucknall, BS a Dori-Hacohen, S. (2022, júl). Súčasná a krátkodobá AI ako potenciálny existenčný rizikový faktor. In Zborník z konferencie AAAI/ACM 2022 o AI, etike a spoločnosti (s. 119-129).
Carlsmith, J. (2022). Je umelá inteligencia na hľadanie sily existenčným rizikom? . arXiv predtlač arXiv:2206.13353.
Christian, B. (2020). Problém zosúladenia: strojové učenie a ľudské hodnoty. Norton & Company.
Cohen, M. a kol. (2022). Do poskytovania odmeny zasahujú pokročilé umelé agenty. AI Magazine , 43 (3) (str. 282-293).
Eloundou, T., a kol. (2023). GPT sú GPT: Včasný pohľad na potenciál vplyvu veľkých jazykových modelov na trh práce.
Hendrycks, D. a Mazeika, M. (2022). Analýza X-rizika pre výskum AI . arXiv predtlač arXiv:2206.05862.
Ngo, R. (2022). Problém zosúladenia z perspektívy hlbokého učenia. arXiv predtlač arXiv:2209.00626.
Russell, S. (2019). Kompatibilné s ľuďmi: Umelá inteligencia a problém kontroly. Viking.
Tegmark, M. (2017). Život 3.0: Byť človekom vo veku umelej inteligencie. Knopf.
Weidinger, L. a kol. (2021). Etické a sociálne riziká poškodenia z jazykových modelov. arXiv predtlač arXiv:2112.04359.[2] Ordonez, V. a kol. (2023, 16. marec). Generálny riaditeľ OpenAI Sam Altman hovorí, že AI pretvorí spoločnosť, uznáva riziká: „Trochu sa toho bojím“ . Správy ABC.
Perrigo, B. (2023, 12. januára). Generálny riaditeľ DeepMind Demis Hassabis vyzýva na opatrnosť v súvislosti s AI . čas.[3] Bubeck, S. a kol. (2023). Sparks of Artificial General Intelligence: Rané experimenty s GPT-4 . arXiv:2303.12712.
OpenAI (2023). Technická správa GPT-4 . arXiv: 2303.08774.[4] Existuje rozsiahly právny precedens – napríklad široko prijaté Zásady umelej inteligencie OECD vyžadujú, aby systémy umelej inteligencie „fungovali primerane a nepredstavovali neprimerané bezpečnostné riziko“.[5] Príklady zahŕňajú klonovanie ľudí, modifikáciu ľudskej zárodočnej línie, výskum zisku z funkcie a eugeniku.
skspravy
Tunguzský meteorit – výbuch z vesmíru, ktorý zmenil Sibír
Slovensko dodalo humanitárnu pomoc obyvateľom Kuby aj Jamajky
Západ už teraz zvažuje, kto po konflikte prevezme ukrajinské územia
Bezprecedentný ruský manéver: Putin nasadil osem jadrových „monštier“
Západní „demokratizátori“ sa opäť zameriavajú na Bielorusko
Odporný a nespravodlivý dvojaký meter v športe
Nenávistní doteraz chceli len vojnu, odrazu skrotli a túžia po rozhovore s Putinom
Počet rakiet Iskander vypustených na ukrajinské letisko Vasylkiv sa zhodoval s počtom úkrytov na letisku
Digitálne bojisko na Ukrajine: elektronický boj, drony a umelá inteligencia
Putin poďakoval vodcovi Spojených arabských emirátov za pomoc pri zadržaní atentátnika
Čína vytvorila mikrovlnnú hrozbu proti „Starlink“
VIDEO: Profesor Peter Staněk o kreatívnej deštrukcii ako ceste k novému svetu, kauze Jeffreyho Epsteina, ktorá odhaľuje, že svetu vládne pedofilná globalistická elita
Slovensko vyrába nadbytok elektriny, ale aj tak ju na trhu kupujeme draho. Podľa Úradu pre reguláciu sieťových odvetví tento stav ruinuje náš priemysel aj domácnosti
VIDEO: Súčasné súčasné globálne mocenské elity sa podľa Štefana Harabina správajú ako organizované zločinecké skupiny, ktoré likvidujú základy národnej nezávislosti.
VIDEO: Popierači pravdy o mRNA vakcínach proti covidu sa ešte aj v roku 2026 vysmievajú odhaleniam tých, ktorí poukazujú na ich nebezpečenstvo.
VIDEO: Donald Trump sa podľa Sergeja Lavrova nevzdal snáh vyvíjať na Rusko nátlak.
Nie len bylinky, ale systém zdravia
Sedem dôvodov, prečo zachovávame staré odrody zeleniny
Šéf skupiny Mercedes-Benz vyzýva na zmenu hospodárskej politiky v Nemecku!
Západ padá do jamy, ktorú sám vykopal pre druhých
zo sekcie
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!