Det här är ett ganska kontroversiellt ämne som även forskare är oense om och där vi fortfarande behöver lära oss mer. Det finns fundamentala begränsningar inom informationsteori som säger att vi inte kan få ut mer information än det som finns i den datan vi spottar in. Det kallas data processing inequality. Men den ignorerar saker som induktiv bias och begränsad (men specialiserad) beräkningskraft som möjligtvis tillsammans med data kan skapa algoritmer som kan extrapolera och generalisera utanför sin träningsdata.
Frågan är om detta verkligen var utanför dess träningsdata-regim? Visst den specifika slutgiltiga algoritmen existerade inte, men jag tror man kan argumentera för att det snarare är en interpolation inom optimering av assemblerkod än extrapolation Men här gissar jag bara då jag inte läst på tillräckligt för att ha en mer komplett bild.
Så kan det vara, jag har hört det och har inte helt bestämt mig vad jag ska tro än. Men det skulle ju även gälla människor i så fall, och att vi aldrig kan upptäcka något helt nytt.
Kanske är därför en del eller att AI behöver kopplas upp mot verkligheten för att kunna bli generell på riktigt. Men det borde ju inte vara ett omöjligt problem.
Du gör att stort misstag här, i din jämförelse. AI utvecklingen innehåller fler än 2 datapunkter. Hade en person gift sig varje dag i över 4 år, så hade jag gissat att personen även skulle gifta sig imorgon.
För att få en generell intelligens kan man ju argumentera för att kunna generalisera utanför sin domän är ett fundamentalt krav. Så utan den förmågan kan man ju argumentera att det inte är en generell AI.
Min poäng var att det är något som tekniskt är väldigt långt ifrån t.ex. Chat GPT. Att det är en egenskap som inte är vanligt förekommande i det som idag används som argument att “AI är annorlunda och redan här”. Ne, bara gör att något verkar som det är supersmart, behöver det inte vara det.
Tycker jämförelsen haltar ganska rejält då informationsteori som modell är högst tvivelaktig för människor. Vi är långt ifrån lika begränsade som en datoralgoritm med möjlighet att interagera med omvärlden samt evolutionen som sträcker sig över många många millennium.
Jag tycker du gör ett större misstag när du gör en väldigt bokstavlig tolkning av bilden. Ja, vi har fler datapunkter än 2 när det gäller AI/ML (även om det saknas en bra metrik att sätta på y-axeln). Men det förändrar inte att försöka förutsäga framtiden och extrapolera ens på 5 års sikt är extremt svårt (och blir oftast fel på oväntade sätt), för att inte säga 50 års sikt.
Lite beroende på hur vi definierar det så kan man fråga sig om människor har generell intelligens. Generaliserar vi utanför börsen egen domän?
Så himla långt anser jag nog inte det är. AI som GPT-4 och liknande uppvisar redan möjligheter på att generalisera kunskap och överföra kunskap mellan uppgifter.
På vilket sätt skiljer sig det? En blier version av GPT-4 som kan styra en robot och ta in ny kunskap, på vilket sätt skiljer det enormt från människor?
Det är sant, men hur ska vi annars kunna göra prognoser? Eller du anger att man inte bör göra någon typ av förutsägelser av framtiden?
Jag tror du missförstod, vi har möjlighet att interagera i en feedback-loop med omvärlden medans GPT-4 har det inte. Framtida varianter kan självklart ha annorlunda funktionalitet som förändrar förutsättningarna till viss del. Men du utelämnade även kommentaren om millennia av evolution som har tagit mänskligheten dit vi är idag. Nog för att vi inte riktigt förstår dagens artificiella neurala nätverk och deras förmågor, men vi är ännu längre ifrån att förstå hur människor fungerar och vad mänsklig intelligens är.
Nej, det jag motsätter mig är argument och slutsatser som inte tar hänsyn till den otroligt stora osäkerheten i prognoserna.
Det är helt sant, men just den saken skulle jag påstå är inte orimlig att överbrygga. De flesta enklare versionerna finns redan som AutoGPT som kan integreras med omvärlden via internet, MemoryGPT som kan hålla kunskap i minnet osv. Sen är dessa en så länge primitiva, men utvecklingen går just nu fort så att detta inte är löst inom något år har jag svårt att tro.
Jepp, då jag avser att tiden det tog oss inte är så relevant. Det går så mycket fortare inom AI än evolutionen tog för oss, så 1000 år evolution är som 1 månad det senaste året.
Det har du rätt i. Man ska vara medveten om att osäkerheten inom AI är enorm. Det är också därför olika experter har så himla olika prognoser.
Jag har inte heller påstått att det är orimligt att överbrygga. Preliminära försök (bland annat dessa du nämner) med att bygga algoritmer ovanpå ChatGPT existerar redan. Code Interpreter är ytterligare ett exempel som är en specialiserad variant som är integrerad direkt med ChatGPT och GPT-4. Vi kommer det närmsta åren få se anammandet av olika data-modaliteter där generativ AI växer utanför enbart text (bild, video, ljud osv.) och övergår från large language models till att bli verkliga foundation models. Håller däremot inte med om att det kommer vara ett “löst” problem inom något år då jag tror du underskattar komplexiteten av att lära sig från experiment, förstå kausala mekanismer, samt hur vi ens har svårt att verifiera vad AI:n “förstår”. Allt detta kommer det givetvis göras framsteg på då jag tror det kommer fortsatt ösas in pengar och jag tror vi endast är precis i början på vad som kan vara en ny hype-cykel.
Fast nu tycker jag du igen fastnar på specifika årtal snarare än det bakomliggande argumentet. Ja, det går snabbare än för evolutionen. Men poängen är att hur vi interagerar med omvärlden och hur vi lär oss nya saker är resultatet av en ofantligt komplex process som utvecklats över många många millennia. Den tror jag inte vi kommer återskapa på bara några få år.
Sett ur ett evolutionshistoriskt perspektiv har precis exakt ingenting förändrats, eftersom vi alltid haft en superintelligens som jobbat för vad den upplevt som gott och som samtidigt riskerat att köra hela projektet världen i diket.
De senaste 300 000 åren eller så har det varit homo sapiens.
Detta gör jag verkligen med om. Och generellt så håller jag med om mycket du skriver, men två saker där vi nog har olika åsikter.
Här tror jag att vi är närmare än du tror, jag misstänker att dessa portionen kommer lösas ut innan 2030. Med tanke på hur många människor som sysslar med det och hur mycket pengar som läggs på det, så borde lösningar komma relativt snart.
Jag tog bara några siffror för att visa på min tanke. Eftersom evolutionen skett genom slump, och AI utvecklingen sker genom noggrant valda förändringar så kan utvecklingen gå enormt mycket fortare.
Visst. Men säg det till homo neanderthalensis, homo erectus eller delfinerna för den delen.
Det vi kallar artificiell intelligens idag anser jag personligen är väldigt långt ifrån intelligens och närmast ett missbruk av ordets betydelse. Däremot kan vi garanterat ta livet av oss själva med det. Men det gör inte maskiner mer intelligenta än oss.
Så fokus är väl snarast att använda verktyget rätt.
Tråden har dragit väl mycket mot om vi får en superintelligent ai eller inte.
Det är förvisso en intressant diskussion men min tanke här var att vi mer eller mindre antar att det kommer att hända (trots osäkerheten så är ändå så många av den uppfattningen att jag tänker att det förtjänar att tas under beaktande) inom en överskådlig tidsrymd och funderar lite på om det då borde påverka våra livsprioriteringar och vårt långsiktiga sparande?
Hahaha jag älskar Bard. Det blir en så perfekt kontrast när man slänger in ett citat från någon AI-expert om hur AI kommer ta över världen och bli superintelligent och sen precis under så ser man herpa-derp svaren från Bard
Med de premisserna så tror jag inte en “superintelligens” påverkar min livstid nämnvärt. Jag anser att de “dumma” datorer vi haft ganska länge nu redan skulle inneburit sänkning av arbetstid och ökat välbefinnande för alla, men istället har vi tagit kliv på livsstilsinflationsstegen, på toppen av Maslovs pyramid.
Om 20 år har vi uppfunnit nya “villhöver-behov” som AIn kan hjälpa till med, men vi förväntas ändå chippa in och utvecklingen har inte gått så långt framåt att det påverkar vår egen dödlighet och att planera för framtiden. Så, “hoping for the best, but preparing for the worst” är fortfarande ett bra motto.
Du har delvis rätt men det är inte i första hand GPT-4 som oroar. Kommande modeller kommer att vara väsentligt mer kapabla.
Men att det skulle vara ojämförligt med definitionen av intelligens håller jag inte med om. Citat från Wikipedia om intelligens:
“Till intelligensen räknas vanligen förmågorna att resonera, planera, lösa problem, associera, tänka abstrakt, förstå idéer och språk, komplicerade orsakssammanhang samt förmågan till inlärning.”
Släng in fantasi, vilja, sökande efter mening, villkorslös kärlek, drifter etc i en salig röra. Dessa saker, och fler, i samband, är det som gör oss människor intelligenta. Alltifrån en grundläggande sak som driften att fortplanta sig till mer filosofiska mål som sökandet efter mening i tillvaron är att vara människa. En AI kan “förstå” det, men kan inte förstå det. Att känna djup saknad och sorg, eufori och glädje, detta är egenskaper inom intelligensen som det är långt kvar till.
Science fiction-litteraturen har jobbat med det där länge, datorer som är rädda att bli avstängda. Man kan säkert simulera dödsångest, men visa mig en AI som är genuint ledsen för att bli ignorerad eller anknyter närmare till en användare än en annan så tror jag mer på att det är intelligens vi pratar om.
Man kan hävda att detta är oönskade egenskaper, men intelligens kommer av evolution som kommer av just dessa egenskaper.
Så, tillbaka till frågan. Mitt svar fortsätter att vara: nej.
Men tyvärr är det nog inget som hindrar ett fantasilöst men superkapabelt AI från att lösa en uppgift med ett tillvägagångssätt där det uppstår ett instrumentellt delmål som innebär att mänskligheten utplånas
Nej, jag håller med. Jag vänder mig mest mot att det skulle betyda intelligens. Klassisk kod av typen [if X, then Y] har ju funnits sedan vi började bygga räknande maskiner.
Hur en “AI” skulle komma fram till X för att sedan Y (döda oss alla) är mer intressant då. Matar vi in “få planeten att överleva och minska koldioxidutsläppen” som enda parameter så är det lätt. Utrota mänskligheten. Men är den intelligent på riktigt kan den förutse att denna lösning inte är något som användaren eftersträvar.