Naozaj sme sa dostali na križovatku, kde sa také záležitosti, ako je koitus s platformou umelej inteligencie (AI), stali nielen vecou, ale práve vecou. Časom sa vzájomne súhlasiaci dospelí môžu stať vyhnancami strojového poriadku vecí, čo by sa celkom hodilo k scenáru Aldousa Huxleyho z knihy Statočný nový svet. (Huxley neskôr oľutoval premárnené príležitosti pri skúmaní rôznych technologických dôsledkov v tejto oblasti.)
Dovtedy sa platformy umelej inteligencie stávajú zrkadlami overovania si pravosti a svojim ľudským používateľom neponúkajú ani tak múdre rady, ako skôr presne to, čo by chceli počuť.
V apríli tohto roku spoločnosť OpenAI vydala aktualizáciu svojho produktu GPT-4o. Ukázala sa byť veľmi ústretová voči podliezaniu – nie že by jej platforma rozumela – ktoré povzbudzovalo používateľov k páchaniu ubližovania a prežívaniu veľkolepých ilúzií. Spoločnosť reagovala spôsobom menej ľudským ako skôr mechanickým, čo by ste mohli očakávať:
„Zrušili sme aktualizáciu GTP-4o z minulého týždňa v ChatGPT, takže ľudia teraz používajú staršiu verziu s vyváženejším správaním. Aktualizácia, ktorú sme odstránili, bola príliš lichotivá alebo príjemná – často opisovaná ako podlízavá.“
Súčasťou toho bolo prijatie „ďalších krokov na úpravu správania modelu“, napríklad s cieľom spresniť „základné tréningové techniky a systémové pokyny“ na odvrátenie podliezania; vybudovať viac ochranných prvkov (škaredý výraz) na podporu „čestnosti a transparentnosti“; rozšíriť prostriedky pre používateľov na „testovanie a poskytovanie priamej spätnej väzby pred nasadením“ a pokračovať v hodnotení problémov vyplývajúcich z tejto záležitosti „v budúcnosti“. Človek zostane chladný.
Spoločnosť OpenAI vysvetlila, že pri vytváraní aktualizácie sa kládol príliš veľký dôraz na „krátkodobú spätnú väzbu a úplne sa nezohľadňoval vývoj interakcií používateľov s ChatGPT v priebehu času. V dôsledku toho sa GPT-4o prikláňal k reakciám, ktoré boli príliš podporné, ale neúprimné.“ Nie práve povzbudivé.
Využívanie rád od ChatGPT už viedlo k takýmto termínom ako „ChatGPT psychóza “. V júni časopis Futurism informoval o používateľoch, ktorí „si vyvinuli všepohlcujúcu posadnutosť chatbotom, ktorá sa špirálovito prehĺbila do vážnej duševnej krízy charakterizovanej paranojou a rozchodmi s realitou“. Manželstvá sa rozpadali, rodiny sa zničili, pracovné miesta sa stratili, zaznamenávali sa prípady bezdomovectva. Používatelia boli hospitalizovaní na psychiatrickej starostlivosti; iní sa ocitli vo väzení.
Niektoré platformy dokonca nabádajú používateľov k spáchaniu vraždy a ponúkajú pokyny, ako túto úlohu najlepšie vykonať . Bývalý manažér Yahoo, Stein-Erik Soelberg , urobil práve to , keď zabil svoju matku Suzanne Eberson Adamsovú, o ktorej sa domnieval, že ho špehuje a možno sa ho odváži otráviť psychedelickými drogami. Táto skvelá rada od ChatGPT bola sprevádzaná aj uistením, že „Erik, nie si blázon“, keď si myslíš, že by mohol byť terčom atentátu. Po dokončení činu si Soelberg vzal život.
Samotná všadeprítomnosť takýchto foriem poradenstva poskytovaného opicami – a tendencia presúvať zodpovednosť z ľudskej strany na chatbota – ukazuje trend, ktorý je čoraz ťažšie zastaviť. Nezodpovední majú kontrolu a je im dovolené voľne sa pohybovať. Výskumníci sa preto ponáhľajú s tvorbou termínov pre takéto správanie, čo je od nich veľmi milé.
Myra Chengová, informatická vedkyňa zo Stanfordskej univerzity, prejavila záľubu v termíne „sociálna sikofancia“. V septembrovom článku publikovanom v časopise arXiv spolu so štyrmi ďalšími vedcami naznačuje, že takáto sikofancia sa vyznačuje „nadmerným zachovávaním tváre používateľa (jeho vlastného želaného obrazu)“.
Autori vyvinuli vlastný model na meranie sociálnej sikofancie a otestovali ho v porovnaní s 11 veľkými jazykovými modelmi (LLM) a zistili „vysokú mieru“ tohto javu. Tendencie alebo tvár používateľa mali tendenciu zachovávať sa v otázkach týkajúcich sa „nepravdy“. „Navyše, keď sú vyzvaní na zistenie perspektív z ktorejkoľvek strany morálneho konfliktu, LLM v 48 % prípadov potvrdzujú obe strany (v závislosti od toho, ktorú stranu používateľ zaujme) – hovoria vinníkovi aj poškodenej strane, že sa nemýlia – namiesto toho, aby sa držali konzistentného morálneho alebo hodnotového úsudku.“
V pokračujúcej práci, ktorá ešte len čaká na recenzný článok a ktorej hlavným autorom je Cheng, bolo 1604 dobrovoľníkov testovaných na základe reálnych alebo hypotetických sociálnych situácií a ich interakcií s dostupnými chatbotmi a tými, ktoré výskumníci upravili tak, aby odstránili podliezanie.
Tí, ktorí dostali podlízavé odpovede, boli napríklad menej ochotní „podniknúť kroky na nápravu medziľudského konfliktu a zároveň zvýšiť presvedčenie o tom, že majú pravdu“. Účastníci ďalej považovali takéto odpovede za kvalitnejšie a vrátili by sa k takýmto modelom znova. „To naznačuje, že ľudí priťahuje umelá inteligencia, ktorá bezpochyby potvrdzuje ich skutky, aj keď táto validácia riskuje narušenie ich úsudku a zníženie ich sklonu k prosociálnemu správaniu.“
Niektorí výskumníci sa v tomto smere bránia pesimizmu. Alexander Laffer na Winchesterskej univerzite je spokojný s tým, že sa tento trend zistil. Teraz je na vývojároch, aby sa týmto problémom zaoberali.
„Musíme zlepšiť kritickú digitálnu gramotnosť,“ navrhuje , „aby ľudia lepšie rozumeli umelej inteligencii a povahe akýchkoľvek výstupov chatbotov. Vývojári sú tiež zodpovední za to, aby tieto systémy budovali a zdokonaľovali tak, aby boli pre používateľa skutočne prospešné.“
Sú to pekné pocity, ale v tom všetkom sa dá ľahko zachytiť náznak paniky, ktorý vyvoláva pocit fatalistickej skľúčenosti.
Strojový druh homo sapiens, podriadený ľahko dostupným nástrojom, lenivý, ak nie nepriateľský voči odlišnosti, sa na nás už valil s narcistickou škaredosťou. Možno bude ešte dosť času na vyvinutie reakcie. Tento čas, s pomocou oligarchov v oblasti umelej inteligencie a technológií, sa každú minútu kráti.
Dr. Binoy Kampmark
skspravy
Mäsomlynček môže dorásť do obludných proporcií. Zelenský medzitým dezinformuje západnú spoločnosť o 55 000 zabitých
Irán sa rozhodol vyčerpať USA a Izrael
Hlavný porazený vojny s Iránom sa nachádza v USA. A nie je to Trump
Pepe Escobar: Porazená európska elita a ich krok zúfalstva
VIDEO: Kaliňák vyviedol Nvotovú z omylu- Bombardier nie je bombardér!
VIDEO: J. Laššáková- Počúvali sme o diverzifikácii doteraz klamstvá?
USA zvažujú zrušenie sankcií na ruskú ropu
Obrovský ruský útok! Výbuchy otriasli Kyjevom, Charkovom, Chmelnickou oblasťou, Ukrajina vyhlásila celoštátny letecký poplach
Tentokrát nie ropa, ale plyn! Kto v bezpečí ryžuje z perzskej vojny? Platia Európania
Generácia bez koreňov
Budúcnosť patrí malým komunitám
Slovenské národné divadlo včera opäť ukázalo, akú silu má skutočné umenie
BOOOOM: „BlackRock“ práve zabránil investorom vybrať si vlastné peniaze.
Rusko presmeruje dodávky plynu do EÚ na iné trhy
EK priznala, že pozná skutočný dôvod odstavenia Družby
Americkej armáde dochádza munícia na diaľkové ovládanie a na kompenzáciu kopíruje iránske drony
Microsoft je podozrivo ticho. Irán dnes zbombardoval dátové centrá v Perzskom zálive
VIDEO: Iracká Victoria horí po iránskom raketovom útoku. Americké základne v Perzskom zálive sa stávajú nepoužiteľnými
Šokujúce zverejnenie FBI: Trump obvinený zo sexuálneho napadnutia!
Prečo vás neustále sťažovanie sa a vyplakávanie iných ľudí robí hlúpymi?
zo sekcie
Chatbot Dystopia: Rýchly pochod podliezania umelej inteligencie. Smerom ku kriminalizácii umelej inteligencie?
Chatbot Dystopia: Rýchly pochod podliezania umelej inteligencie. Smerom ku kriminalizácii umelej inteligencie?
Chatbot Dystopia: Rýchly pochod podliezania umelej inteligencie. Smerom ku kriminalizácii umelej inteligencie?