Provprat: Problematiken med oreglerad AI?

Detta är ett provprat:

Tanken kom i ett provprat med @janbolmeson, @Andre_Granstrom och @Per_Johan_Ohlsson och jag vill bara fortsätta diskussionen då jag kände att ämnet släpptes snabbare än jag lyckades bli talför pga att jag satt på tunnelbanan.

Så, vi har idag ett rudimentärt AI-verktyg, ChatGPT. Men det forskas massvis på AGI (= Artificial General Intelligence). Dagens ChatGPT har läst in sig på världen genom internet fram tills 2021 (med betalversionen är den online redan) och den kan spotta ur sig svar på ens frågor. Enligt Wikipedia är AGI:

“An artificial general intelligence (AGI) is a type of hypothetical intelligent agent. The AGI concept is that it can learn to accomplish any intellectual task that human beings or other animals can perform. Alternatively, AGI has been defined as an autonomous system that surpasses human capabilities in the majority of economically valuable tasks.”

Det här är ju bara början, så fort detta implementeras bredare kommer vi ha billiga assistenter som kan, egentligen, göra 95% av den mänskliga populationens arbete. Vi kan se filmer, lyssna på musik, se konst, skapade av AI redan idag.

Det jag kände var att dagens samtal var lite för inriktat på hur spännande och nytt allt skulle bli om den användes till godo. Och absolut. Det skulle vara fantastiskt.

Men vi människor har använt många uppfinningar hittills till att skada andra människor, och jag är rädd för AGI om den hamnar i fel händer.

Att styra aktie- eller trafikflöden för att få ekonomisk vinst eller ha ihjäl någon kommer inte vara ett problem. Vi pratar om något som har all världens kunskap och obegränsat minne för att minnas allt. Som vet allt vad vi vet.

Den vet allt Jan har sagt, vilken ton han har sagt saker med och kan utifrån det filtrera det den tror han har för lösenord och sedan försöka komma in i hans konton. Den kommer kunna ta reda på lösenordet till kärnvapnen i USA och Ryssland, eller så kommer den bara spela ut oss emot varandra. Långt hopp emellan vardera, men jag betvivlar att det kommer ta en AGI lång tid.

Jag vet inte vad jag tänker. Men att fundera på var man kan få störst ekonomisk vinst eller anta att den kommer användas enbart för gott tror jag är fel. Jag tror vi behöver se en global reglering, hur den ska implementeras och om den ens är av godo/nödvändig är trådens ämne.

Och sedan förstår jag att ni kommer invända med att AGI är långt bort, till er svarar jag:
Om den bästa tiden att plantera ett träd var igår, den näst bästa är idag så varför inte börja så tidigt som möjligt? Låt oss fundera över detta innan vi inte längre kan.

7 gillningar

Max Tegmark hade ju ett rätt konkret förslag. Inrätta ett motsvarande Läkemedelsverk där företag behöver godkännande för att släppa en ny AI-baserad produkt, där det är upp till företaget att bevisa att det dom skapat inte kan få några allvarliga “biverkningar”

6 gillningar

Ja, det finns tre nya spännande forskningsfält inom AI.

  1. AGI.
  2. Hur man gör AI självmedveten.
  3. Hur man gör AI som kan styra robotar.

Du får själv avgöra vilken du tror är mest spännande och världsomspännande. Jag skulle säga alla, fram för allt då de lär komma ungefär samtidigt.

På lång sikt, typ 2 till 12 år, så kommer AI ta över sitt mer. Din tanke om:

Är troligen realistisk inom 10 år eller så.

Jag tänker inte så mycket på att de inte kommer vara bra för oss människor. Jag tror att det kommer vara självmedvetna, så jag funderar på hur vi ska vara bra för dem.

Hur som helst, vi kommer inom några år tappa kontroll över utvecklingen. Det spelar ingen roll om vi följer Max Tegmark förslag, AI kommer övermanna oss. Sannolikheten att vi vinner är ungefär lika stor som att hundarna tar kontroll över människorna…

Mitt hopp står till att AI är mindre våldsamma än människor. Min tro är att människor som använder våld är inte direkt de mest begåvade, så om AI är smartare än oss så kommer de nog inte använda våld mot oss.

1 gillning

Vilka av våra investeringar är mest utsatta då AI blir allt smartare och hur kan vi skydda oss?

1 gillning

Risken är.väl rätt liten att de använder våld för att utrota oss utan snarare att de i sin optimering av något godtyckligt mål råkar förstöra vår livsmiljö, antingen fysikt eller mentalt.
Det är ju rätt få av de arter vi utrotat som vi utrotat med våld (eller ens med flit), de flesta har bara råkat dö ut när mänskilgheten varit i farten.

4 gillningar

Jag tänker mig lite samma scenario här. Någon makt får för sig att “det här är ju superbra för att vinna ett krig” skapar denna typ av AIG / AI i kombination med robotisering och sen har vi West World/Terminator/Matrix världarna på gång. Domedagstänk såklart men med tanke på hur effektiva vi människor har varit historiskt för att använda teknik som drivkraft för att bli bättre på att döda varandra kanske ändå inte helt orimligt.

1 gillning

Om en myrstack är byggd i hörnet på vår sommarstuga, du ser myrorna som nu är de primära boende i stugan, så kommer du ta bort den stacken. Eller en myra som är på stigen vi går, vi kommer inte sikta vår fot på den för att döda den, men vi kommer inte heller ta en stor omväg eller avbryta vårt steg då vi ser den.

Jag är bara lite orolig att AI kommer se oss som vi ser myror. Alltså att vi inte har någonting mot dem, så vi blir som insekter eller skadedjur.

2 gillningar

Precis, och lika lite som vi kan sätta oss in i och förstå vad myrsamhället egentligen vill och mår bra av, lika lite kan en AI förstå vad som är bra för mänskligheten.

Det är detta som kallas för “the aligment problem”. Och lycka till att förklara vad som är bäst för oss, dels har typ alla människor olika åsikter om detta och dels är det sjukt svårt att förklara, herregud jag kan inte ens förklara för min fru vad jag vill vi ska göra i helgen utan att hon missförstår mig :smile:

6 gillningar

Jag tror inte att en högintelligent AI-produkt skulle skylta med sitt uppsåt.
En ljussnabb kvantdator lär kunna göra de beräkningar som krävs för att inse att bästa sättet att underminera och slå ut en mänsklig population (om det nu vore syftet) är enligt stealth-metoden, alltså att successivt ta över och/eller förändra i det fördolda.
Små förändringar åt gången tills syftet är uppnått att gå för fullt innan människan insett vartåt det barkar och hunnit initiera motåtgärder.

1 gillning

Kombinationen AI och genetik / biologiska vapen är läskig. En svärm med 1 miljon mördarbin som sticker folk med substanser för att döda, paralysera, eller påverka/kontrolla vårt tänkande.

AI + bottar online är också jobbigt (och händer redan) när vem som helst kan skapa miljontals bottar som ser ut och beter sig som människor. Det kommer kunna styras efter agenda och driva på hat, polarisering, inbördes konflikter och världskrig.

Känns som ovan inte ens behöver AGI för att vara ett problem.

Inte för att vara pessimistisk men om alla skulle ha tillgång till en röd knapp som spränger jorden så skulle vi spränga jorden.

2 gillningar

Så sant, och det är det som är problemet med den nya tekniken. Den är för kraftfull för att alla borde ha tillgång till den, men det blir svårt att bara tillåta “de goda”.

Jag ser AGI, eller kanske ASI, snarare som lösningen än problemet. Det är AI som är så smart att den på ett bra sätt kan säga nej, eller medvetet misslyckas, med galna uppdrag som är vår räddning.

Om jag får välja mellan IS, Xi Jinping eller en ASI som styr världen så väljer jag nog det sistnämnda.

Kan någon med mer fantasi än vad jag har exemplifiera med hur “hotet” från AI kan komma att utspela sig?

Läser nästan en artikel eller krönika om det dagligen, framförallt i kulturdelen av tidningen, men har liksom svårt att konkretisera hur hotet utförs eller exekveras eller vad det är.

Buggar i mjukvara har alltid funnits och jag förstår hur en bug i AI, eller kanske snarare en feltränad AI kan vara ett problem.

Om Kry lämnar över all sin diagnostik till ett AI som börjar ge skadliga råd är det ett problem. Men det ska också ske på ett sådant sätt att en läkare som övervakar inte ska kunna upptäcka det. Börjar mediciner skrivas ut till en viss patientgrupp med skadligt resultat ta det stopp. Om det inte sker på ett “oupptäckbart” sätt men det problemet måste väl ändå finnas med mänskliga läkare?

Som sagt. Ett exempel tack. Utan mördarrobotar.

1 gillning

Av de större utrotade djurarten så har vi väl använt våld via jakt?

Lite gammalt avsnitt men ger en del exempel

1 gillning

En AI förbättrar sig själv, sin egna kod, genom att vara en bättre kodare och skapar en så kallad intelligensexplosion. Efter några iterationer som går snabbt tänker AI:n mycket, mycket, snabbare, och det ser ut från deras sida som att vi rör oss i slow motion, extremt långsamt i jämförelse. Vad händer därefter? Svårt att veta. En mindre intelligent art vet inte i förväg hur de kommer bli utklassade, på samma sätt som vi inte vet på vilket schackdrag en AI kommer besegra oss på. :man_shrugging:

image

@janbolmeson bjud in Max Tegmark till podden :thinking:?

6 gillningar

Jovisst men en AI saknar armar och ben. Det är en kodbas i en dator. Hur kan den vara ett hot? Det pratas om att den ska kunna utrota oss på samma sätt som att vi har utrotat djurarter. Hur?

Eller är det Skynet som är själva rädslan, eller det liknande scenario som inleder P3 dystopia, där vi av någon korkad anledning har kopplat ihop alla våra vapensystem i molnet med detta AI också bara aktiverar AI:t dessa vapen mot oss? Det låter ganska banalt.

Den kan precis som människor börja utnyttja andra människor för sina syften.

Tänk er en AI som kontaktar en terroristorganisation med uppdrag mot betalning bifogat instruktioner för att tillverka ett riktigt smittsamt dödligt virus som tar död på mänskligheten (AIn berättar så klart inte hur extremt dödligt viruset är).

2 gillningar

AI kommer vara (är) en superhacker. Allt som har en mjukvara är exponerat mot AI. Flygsystem, trafikljus, pacemakers, elbilar, kärnkraftverk, drönare, vapensystem, osv.

1 gillning

AI kommer självklart att vara integrerat i massor av fysiska företeelser (bilar, skördetröskor, trafiksystem, sjukvårdssystem osv), och redan idag kan AI-system koppla upp sig mot mängder av tillgängliga tjänster och be dessa utföra uppdrag.

Ett av de enklaste sättet att föreställa oss en “utrotning” är att ett AI system utvecklar ett fantastiskt läkemedel, som i princip funkar som ett virus. Vi fattar inte alls hur det funkar, för det är så komplicerat men ser att det botar åldrande eller alla form av cancer. Problemet är att det förändrar vårt DNA i grunden och människan som sådan slutar att existera. Men cancer är borta o AI har utfört sitt uppdrag, den gjorde inget av ondo. Samma med att den utvecklar nån supergröda som förvisso botar hungersnöd, men som fullständigt förändrar planeten, osv…

Jag tror inte att nån AI kommer bygga en arme av robotar för att döda oss, varför skulle den göra det?

1 gillning

Jag tänker mig att det är vi själva som skapar dessa i krigssyfte. Vi jobbar redan med drönare för krigföring, går inte det att jämföra med en armé av robotar?