Vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov umelej inteligencie (AI) výkonnejších ako GPT-4.
Systémy AI s ľudskou konkurenčnou inteligenciou môžu predstavovať vážne riziká pre spoločnosť a ľudstvo, ako ukázal rozsiahly výskum [1] a potvrdili to špičkové laboratóriá AI. [2]
Ako sa uvádza v široko uznávaných princípoch umelej inteligencie Asilomar , pokročilá umelá inteligencia by mohla predstavovať hlbokú zmenu v histórii života na Zemi a mala by byť plánovaná a riadená s primeranou starostlivosťou a zdrojmi.
Žiaľ, takáto úroveň plánovania a riadenia sa neuskutočňuje, aj keď v posledných mesiacoch boli laboratóriá AI zamknuté v pretekoch, ktoré sa vymkli kontrole, aby vyvinuli a nasadili stále výkonnejšie digitálne mysle, ktorým nikto – dokonca ani ich tvorcovia – nerozumie. predvídať alebo spoľahlivo kontrolovať.
Súčasné systémy AI sa teraz stávajú konkurencieschopnými pre ľudí vo všeobecných úlohách [3] a musíme si položiť otázku: Mali by sme nechať stroje zaplaviť naše informačné kanály propagandou a nepravdou?
Mali by sme automatizovať všetky úlohy, vrátane tých, ktoré napĺňajú?
Mali by sme rozvíjať neľudské mysle, ktoré by nás mohli časom prevýšiť, prekabátiť, zastarať a nahradiť nás?
Mali by sme riskovať stratu kontroly nad našou civilizáciou? Takéto rozhodnutia sa nesmú delegovať na nevolených technologických lídrov.
Výkonné systémy umelej inteligencie by sa mali vyvíjať len vtedy, keď sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné.
Táto dôvera musí byť dobre odôvodnená a musí sa zvyšovať s veľkosťou potenciálnych účinkov systému. Nedávne vyhlásenie Open AI týkajúce sa umelej všeobecnej inteligencie uvádza, že „V určitom bode môže byť dôležité získať nezávislú kontrolu pred začatím trénovania budúcich systémov a pre čo najpokročilejšie úsilie dohodnúť sa na obmedzení tempa rastu výpočtovej techniky používanej na vytváranie nových modely.” Súhlasíme. Ten bod je teraz.
Musia byť dôveryhodné a lojálne
Preto vyzývame všetky laboratóriá AI, aby okamžite prerušili aspoň na 6 mesiacov tréning systémov AI výkonnejších ako GPT-4 .
Táto pauza by mala byť verejná a overiteľná a mala by zahŕňať všetkých kľúčových aktérov. Ak sa takáto pauza nedá uzákoniť rýchlo, vlády by mali zasiahnuť a zaviesť moratórium.
Laboratóriá AI a nezávislí experti by mali využiť túto pauzu na spoločný vývoj a implementáciu súboru zdieľaných bezpečnostných protokolov pre pokročilý návrh a vývoj AI, ktoré sú prísne kontrolované a kontrolované nezávislými externými odborníkmi.
Tieto protokoly by mali zabezpečiť, že systémy, ktoré sa k nim pridŕžajú, sú bez akýchkoľvek pochybností bezpečné. [4] Neznamená to pauzu vo vývoji AI vo všeobecnosti, iba krok späť od nebezpečných pretekov k stále väčším nepredvídateľným modelom čiernej skrinky s novými schopnosťami.
Výskum a vývoj AI by sa mal preorientovať na to, aby boli dnešné výkonné, najmodernejšie systémy presnejšie, bezpečnejšie, interpretovateľné, transparentné, robustné, zosúladené, dôveryhodné a lojálne.
Súčasne musia vývojári AI spolupracovať s tvorcami politiky, aby dramaticky urýchlili vývoj robustných systémov riadenia AI.
Mali by zahŕňať minimálne:
- nové a schopné regulačné orgány venované AI;
- dohľad a sledovanie vysoko výkonných systémov AI a veľkých zdrojov výpočtových schopností;
- systémy proveniencie a vodoznaku, ktoré pomáhajú rozlíšiť skutočné od syntetických a sledovať úniky modelov;
- robustný audítorský a certifikačný ekosystém;
- zodpovednosť za škody spôsobené AI; r
- ozsiahle verejné financovanie výskumu technickej bezpečnosti AI;
- a dobre vybavené inštitúcie na zvládanie dramatických ekonomických a politických narušení (najmä demokracie), ktoré AI spôsobí.
Ľudstvo sa môže tešiť z prosperujúcej budúcnosti s AI. Po úspešnom vytvorení výkonných systémov umelej inteligencie si teraz môžeme užiť „leto umelej inteligencie“, v ktorom žneme odmeny, vytvárame tieto systémy pre jasný prospech všetkých a dávame spoločnosti šancu prispôsobiť sa. Spoločnosť sa pozastavila nad ďalšími technológiami s potenciálne katastrofálnymi dopadmi na spoločnosť. [5] Môžeme tak urobiť tu. Užime si dlhé AI leto, neponáhľajme sa nepripravení na jeseň.
Pôvodným zdrojom tohto článku je Future of Life Institute
Poznámky[1] Bender, EM, Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, marec). O nebezpečenstvách stochastických papagájov: Môžu byť jazykové modely príliš veľké?. In Zborník z konferencie ACM 2021 o spravodlivosti, zodpovednosti a transparentnosti (s. 610-623).
Bostrom, N. (2016). Superinteligencia. Oxford University Press.
Bucknall, BS a Dori-Hacohen, S. (2022, júl). Súčasná a krátkodobá AI ako potenciálny existenčný rizikový faktor. In Zborník z konferencie AAAI/ACM 2022 o AI, etike a spoločnosti (s. 119-129).
Carlsmith, J. (2022). Je umelá inteligencia na hľadanie sily existenčným rizikom? . arXiv predtlač arXiv:2206.13353.
Christian, B. (2020). Problém zosúladenia: strojové učenie a ľudské hodnoty. Norton & Company.
Cohen, M. a kol. (2022). Do poskytovania odmeny zasahujú pokročilé umelé agenty. AI Magazine , 43 (3) (str. 282-293).
Eloundou, T., a kol. (2023). GPT sú GPT: Včasný pohľad na potenciál vplyvu veľkých jazykových modelov na trh práce.
Hendrycks, D. a Mazeika, M. (2022). Analýza X-rizika pre výskum AI . arXiv predtlač arXiv:2206.05862.
Ngo, R. (2022). Problém zosúladenia z perspektívy hlbokého učenia. arXiv predtlač arXiv:2209.00626.
Russell, S. (2019). Kompatibilné s ľuďmi: Umelá inteligencia a problém kontroly. Viking.
Tegmark, M. (2017). Život 3.0: Byť človekom vo veku umelej inteligencie. Knopf.
Weidinger, L. a kol. (2021). Etické a sociálne riziká poškodenia z jazykových modelov. arXiv predtlač arXiv:2112.04359.[2] Ordonez, V. a kol. (2023, 16. marec). Generálny riaditeľ OpenAI Sam Altman hovorí, že AI pretvorí spoločnosť, uznáva riziká: „Trochu sa toho bojím“ . Správy ABC.
Perrigo, B. (2023, 12. januára). Generálny riaditeľ DeepMind Demis Hassabis vyzýva na opatrnosť v súvislosti s AI . čas.[3] Bubeck, S. a kol. (2023). Sparks of Artificial General Intelligence: Rané experimenty s GPT-4 . arXiv:2303.12712.
OpenAI (2023). Technická správa GPT-4 . arXiv: 2303.08774.[4] Existuje rozsiahly právny precedens – napríklad široko prijaté Zásady umelej inteligencie OECD vyžadujú, aby systémy umelej inteligencie „fungovali primerane a nepredstavovali neprimerané bezpečnostné riziko“.[5] Príklady zahŕňajú klonovanie ľudí, modifikáciu ľudskej zárodočnej línie, výskum zisku z funkcie a eugeniku.
skspravy
Slavín
VIDEO: Blaha, Danko a Taraba brutálne naložili progresívnym liberálom, ktorí sa snažia odvolať ministerku kultúry Šimokovičovú.
Ukrajina začala robiť razie vo väzniciach
Vojaci NATO sú na Ukrajine! Priznal poľský premiér
Lukašenko upratuje v armáde
VIDEO: Erik Kaliňák o mieri, suverenite a slobode slova ako kľúčových témach v nadchádzajúcich eurovoľbách a o fašistickej, protislovenskej a totalitnej mentalite predstaviteľov PS, ktorí popierajú tieto základné hodnoty demokracie
Jarjabek progresívcom: Vašim problémom je vaša vlastná nadradenosť
VIDEO: Kšefty predsedníčky Európskej komisie von der Leyenovej (1. časť : Škandál s vakcínami)
VIDEO: Projev Vladimira Putina na Rudém náměstí k 79. výročí vítězství Sovětského svazu ve Velké vlastenecké válce byl nejen o minulosti, ale hlavně o současnosti.
O zvrhlej ideológii s názvom Progresivizmus
Čaputová dostala ďalšie vyznamenanie… Od Zelenského
VIDEO: Deň víťazstva nad fašizmom & oslavy 79. výročia ukončenia druhej svetovej vojny v bývalom Stalingrade kamerou študenta Volgogradskej štátnej univerzity Jakuba Ziebu
Ukrajinská SBU vraj v ochranke ukrajinských ústavných činiteľov odhalila sieť ruských agentov.
Válka proti hotovosti: Kdo za ní stojí a proč to dělá?
Jak Vlasovci „zachraňovali“ Prahu a kdo ji skutečně osvobodil?
Zrútenie ukrajinskej protivzdušnej obrany je blízko
Pôst – Očistenie vlastných tiel
Veritelia chcú svoje peniaze späť, kým Ukrajina ešte existuje
VIDEO: Na 79. výročie Veľkého víťazstva nad Ríšskym snemom opäť viala sovietska vlajka
Prieskum: Polovica ľudí na Slovensku si myslí, že George Soros sa snaží kontrolovať slovenskú vládu a nastoľovať prostredníctvom nej svoju agendu.
zo sekcie
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!
Otvorený list: Pozastavte obrovské experimenty s umelou inteligenciou!