Jag ska själv försöka svara på min fråga om långsiktigt sparande.
Det verkar rimligt att flytta lite av prioriteringarna till kortsiktigt spenderande på intressanta saker/upplevelser då den ej försumbara risken för de scenarion jag presenterade bör skriva ner värdet på långsiktigt sparande.
Observera att jag talar om en typ av ombalansering i prioritet här. Inte bränn pengarna nu direkt då korten inte är tillräckligt tydliga ännu för några dramatiska ändringar eller beslut.
Jepp, det är precis det jag tror. Dock inte om 5 år. Men ungefär till år 2050 skulle jag gissa. Och då jag själv förväntas gå i pension år 2057 så är det trots allt relevant för mig och mitt långsiktiga sparande.
Här kommer en video om att det trots allt är enkelt att få dagens AI att göra det du vill.
Det finns iaf en trend hitintills att ju bättre din AI blir, ju bättre blir den på att följa dina instruktioner och de mål du ger den. Lite som att när den blir smartare så förstår den inte bara det du säger utan även vad du menar. Hittar dock inte länken till det just nu.
Jag uppfattar de scenarion som Erik Sandewall för fram som relevanta. Det mest närliggande för min del är att AI skulle användas som redskap för att måla upp en alternativ världsbild.
Redan nu är det tydligt att vi har vissa länder där befolkningen till stora delar är en sorts hjärndöda zombies. Det finns förklaringar till att det ser ut så men det är likafullt en realitet. Att tänka sig att någon auktoritär ledare vill skapa förutsättningar för krig är inte svårt. Att då använda AI för att manipulera och omvända folket till ”krigets religion” är en helt realistisk möjlighet.
Ovanstående är alltså egentligen inget nytt. Det handlar om saker som redan görs, bara att effektiviteten kan ökas markant. Om människor på allvar tror att de utkämpar en existentiell kamp så ökar deras stridsvilja och moral något oerhört.
Det är bara propaganda från OpenAI. Deras lösning är att skapa en superintelligent AI forskare som kommer lösa problemet åt oss.
Världen är i deras händer. Känns tryggt. I det bästa scenariot hade världens nationer gått samman och tänkt efter, många, många steg framåt för att lösa det här problemet.
Men det är inte det vi har nu som är faran.
Nästa eller nästnästa GTP-modell kommer att kunna göra så mycket mer och när vi börjar köra dem som agenter öppnas alla möjligheter för tråkiga scenarion…
OpenAI värderas just nu till runt 600 miljarder dollar på andrahandsmarknaden. Det är en dubbling jämfört med när Microsoft öppnade plånboken och investerade 10 miljarder USD i OpenAI den 23:e januari i år.
OpenAI har på mindre än 12 månader lyckats dra in över 400 miljoner USD i vinst på sin första kommersialiserade produkt.
Vi har bara sett början på vad som komma skall. De har knäckt ett svårt problem som nu alla andra inom detta fält också har lösningen till. Det öppnar upp för att lösa nästa knut och den efter det.
Det är bara att spänna sig fast vid AI-raketen och se vart den styr kosan.
Här håller jag inte med. Att skapa en ny form av intelligens kan inte jämställas med en maskin eller lite elektronik.
Det ska snarare ses likvärdigt med utvecklingen av homo-sapiens. En ny högsta intelligens på jorden. Om det bara smälter in i historieskrivningen om några hundra år så är ingen gladare än jag. Dock har jag svårt att tro det!
Därav min fundering kring långsiktigt sparande. Det finns förstås en massa mer att diskutera kring men detta är ju trots allt ett ekonomiforum…
Som sagt, jag håller med om att det är omvälvande uppfinningar.
Men, internet utgör inte på egen hand en existentiell risk. Inte heller någon annan teknik eller uppfinning.
AI skulle däremot kunna göra det då det kommer att agera, resonera, planera, prioritera och allt annat på sätt som vi inte har någon aning om just nu. Kombinera detta okända agerande med en för oss ofattbar förmåga så framstår det åtminstone för mig som betydligt mer riskfyllt!
Alla maskiner och saker vi har idag förstår vi hur de fungerar och varför. Det gör vi inte med AI ens på den nivån av ai-modeller vi är på nu, vilket ännu så länge är intelligensmässigt svagare än oss människor.
Jag är ledsen men det du skriver låter för mig extremt överdrivet.
Internet skulle jag säga lätt kan betraktas (kan ha betraktats) som en existentiell risk. Möjligheten till att globalt manipulera människor till totalt globalt krig (kontroll över informationsspridning). Det låter rätt bissart med den kunskap du har idag va? Men att se det som en potentiell utveckling för sådär 30 år sen hade inte varit orimligt.
Här anser jag du är ute och cyklar. Vi har såklart full förståelse för hur du funkar. Ta t.ex. ett stort CNN (Convolutional Neural Network), det kan göras så stort att det inte är möjligt för en människa att begripa vad alla koefficienter (eller grupper av koefficienter) “betyder”. Samtidigt är har vi fullständig förståelse för hur det fungerar, matten är enkel analys på den nivån nästan alla ingenjörer läser.
Sen är det så otroligt mycket längre bort än du kan föreställa dig med att få artificiell intelligens som överträffar mänskligheten. Helt enkelt eftersom det finns ingen träningsdata som utvidgar från mänsklighetens förmåga.
Chat GPT är bara en språkmodell. Dess kapacitet tar tvärstopp där mänsklighetens förmåga tar slut. Hela dess domän är mänskligt språk.
Tänk en enkel bildigenkänning, tränad på att se skillnad mellan bilar och cyklar. Sen ger du den en bild på en gurka. Plötsligt framstår den som korkad, då den i princip blivit en slumpgenerator när det kommer till gurkbilder. Eller varför inte mata in Shakespeares samlade verk istället för en bild på en gurka, det kommer inte var någon begriplig output. Text är helt enkelt utanför domänen som bildigenkänningen är tränad. Precis samma sak är Chat GPT, bara att domänen är allt mänskligt språk. Så fort du försöker gå utanför mänsklighetens språk blir det bara rappakalja.
Pröva att ge Chat GPT ett interface till en Schimpans. Det kommer inte ha en suck i att försöka översätta schimpansens kommunikation till människor. Då är ändå schimpanser extremt lika människor ur artperspektiv. Trots att skillnaden i att kommunicera med människor mot Schimpanser är väldigt liten sett ur ett större perspektiv.
Även om någon extrem generell AI tillkom så behöver det inte heller det vara någon katastrof. Varför skulle den inte kunna bli religös och tillbe sin skapare? Att den istället kommer göra allt för att tjäna mänskligheten som art? Kanske den ser sin existens som en sådan risk att den direkt självförstör sig för att skydda sin skapare?
Vi har ingen aning vad som kommer ske och det är alltid annorlunda denna gången.
Hur vet du att en AI inte kan generalisera utanför dess träningsdata? Borde inte möjligheten för en AI att göra nya upptäckter vara ett bevis på att de kan generalisera mer generellt?
Nu har jag inget exempel på det just ChatGPT har använts för en ny upptäckt, men det finns ett par andra AI som har gjort det, exempelvis alphadev.