Om AI innebär lika stor förändring som den industriella revolutionen så underskattar många förändringen vi står inför

Då och då ser man folk som visar hur dåligt dagens AI modeller fungerar, likt detta:

Ibland måste man fråga sig om det verkligen stämmer eller detta bara är ett dåligt exempel. Vissa verkar gilla att sprida en bild av att AI inte fungerar. När jag själv testar så tycks det gå lite bättre :sunglasses:

2 gillningar

Men du använder ju en annan prompt…? Jag tolkar poängen i tweeten som att LLMer är härmapor.

Till skillnad från andra som överdriver vad LLMs klarar av?

Du ger den ett helt annat uppdrag där du specar vilka färger den ska använda… Är inte alls samma sak.

Uppenbarligen misslyckades jag med att förklara mig väl i mitt inlägg.

Jag tolkar inlägget som att det går att lura LLMer att göra annat än det man uppenbarligen vill.

Jag skulle säga precis som de som överdrivet vad LLMs klarar av.

Syftet med inlägget var att belysa att en del tycks fokusera uteslutande på bristerna inom AI och LLMs. Jag anser att det kan vara klokt att vara lite skeptisk till dessa personer. Min uppfattning är att det ofta anses “smart” att vara pessimistisk, men inte sällan så fort optimistiska rätt.

1 gillning

Det handlar mycket om att de fram tills nu har svårt med saker som “not” “no” osv, kopplat till det man vill “anti”/ta bort.

Det finns dock en negativ prompt som man kan använda för sådant, så gör man en vettig prompt så kan man definitivt få fram det man vill.

Stable Diffusion 3 har just släppts (jag har inte provat den än), och den sägs bättre på saker som “a blue x to the left a red y to the right”, och jag tror jag läste/såg något om att den är bättre på “inte” också. Den verkar ha bättre förståelse för ord som syftar på andra ord i texten. Jag väntar på bra tutorials och stöd för SD3 i de tools jag använder–ser fram emot att testa den!

1 gillning

Och vi verkar också ha förklarat dåligt :stuck_out_tongue: Ingen av oss sa emot din poäng. Utan efterfrågade bara att du använder samma prompt som i tweeten, så att din poäng inte faller platt pga. denna teknikalitet.

2 gillningar

Visst.

Min poäng var bara att man ska också vara lite skeptisk till någon som tycks fokusera uteslutande på fördelar inom AI och LLMs (som har fyllt denna tråd med hundratals väldigt pro-AI kommentarer), och som använder ett missvisande motexempel för att visa att AI “kan visst”.

1 gillning

Fast till viss del är det ju att man vill nå ett mål/generera en viss bild, och finns det workarounds för att nå det målet så uppfyller det ju syftet.

Vi kan göra grejer med AI nu som var helt omöjliga förut, och om man för tillfället behöver böja lite på sin prompt–så varför inte? All teknologi har sina quirks, och man kommer inte långt om man bara tjurigt säger “den kan inte!”

Att visa att den klarar av det om man bara skärper sig lite har en poäng, tycker jag.

Jag tycker det är intressant att undersöka vad AIn jag använder inte förstår, men jag gör det med utgångspunkten “vilka workarounds behöver jag tillämpa för att nå mitt mål?” @ErikDahlen postade en fungerande workaround.

1 gillning

Problemet är att om man använder just deras prompt så kommer man oftast, eller alltid, få något som inte blir helt rätt. Prompten är designad för att dagens AI inte ska klara av den.

För några månader sedan så var den stora grejen att man inte kunde be en AI att inte ha med en grej sked i bilden, men sedan en uppdatering i april så är de betydligt bättre på det. Exempelvis här.

Funkar fint i många miljöer:

Hade han lyft problemet och nämnt att det finns bättre sätt att använda dagens modeller så hade jag tyckt det var bra, men nu blev jag lite skeptisk.

Detta är bland det bästa jag läst på ett tag:

Lite läskigt också. :scream:

5 gillningar

Du har rätt i att man inte bara ska titta på fördelarna. Ett tips kanske for vi att både följa det jag lägger upp och det Gary lägger upp, så får man en balanserad dos :face_with_peeking_eye:

1 gillning

Jag har sett hans prognoser, och rent tekniskt så tror jag han har hyfsat rätt. Men jag tror han överskattar hur fort det kommer gå. 2027-2028 låter väldigt optimistiskt.

GPT-4 ligger typ 5 storleksordningar bort, om man tror att det är nödvändigt att skala upp dessa system.

GPT-4 tränades på 25000 A100 grafikkort i 3 månader.

B100 som går att beställa från Nvidia är typ en storleksordning bättre. Köper du 250 000 stycken så har du fått 2 storleksordningar. Köper du B100 idag är väl leveranstiden typ 6-12 månader? Ska du ha flera hundra tusen lär det nog inte gå fortare, tror jag.

Hur som helst, var ska han hitta de övriga 3 storleksordningarna? Frågar du mig så får vi nog vänta ett antal år till.

1 gillning

Han har inte riktigt koll på hur svårt det är att få tag på den energi som han antar ska gå in i träning av AI modeller för att få en intelligence explosion.

Jag tror han har rätt i princip, men det kommer ta lite längre tid :nerd_face: kanske inte jättemycket längre, men längre.

2 gillningar

Såg nyss en video som pratar om AI är i en bubbla eller inte, på 8 min hinner de med det viktigaste. Jag tror på deras slutkläm…

1 gillning

Den här fick jag existensiell ångest över.
Det är så sjukt obehagligt att det är så mycket som kan gå fel och att konsekvenserna är så oerhörda om det blir så.
För att sätta i lite kontext; jag använder själv AI och försöker vara positivt inställd så det är inte bara för att vara motsträvig.
Tyvärr känns riskerna med AI i kombination med geopolitiken (Xi/Putin/Trump) som en väldigt riskabel kombination.

2 gillningar

Ett imponerande epos, man ska dock inte glömma att han har startat en VC-firma med fokus på AI/AGI :moneybag::mega::slight_smile:

Som alltid ligger det svårsmälta för mig i just “AGI”-delen: Vi har inte löst hur vi kommer dit. Uppenbarligen inte genom att lära LLMer textmassor från internet. Han skriver att GPT-2 till GPT-4 gick från dagis- till gymnasienivå, men det stämmer ju bara för specifika test/uppgifter. Den kan inte improvisera fram ett solo med känsla i en jazzkvartett - något som många gymnasieelever på musiklinjer runt om i världen klarar av. Visst, ett dumt exempel - men min poäng är att vi inte har något som liknar en komplett gymnasieelev i dag i GPT-4o, utan vi har en halvspecialiserad AI som kommer att bli väldigt mycket bättre på samma specifika saker de närmsta åren. Och därför ser jag inte att man kan extrapolera det vi har i dag till att vi har AGI om 3 år, på ett intellektuellt hederligt sätt.

5 gillningar

Tydligen tycks AI video inte vara i någon plateau :sunglasses:

https://x.com/runwayml/status/1802691475391566108

Vissa av sakerna man jag sett får mig att hoppas att detta är fejk, annars börjar det bli galet bra. Eller så är jag kanske lätt imponerad :thinking:

2 gillningar

Passande nog visar DeepMind upp en ny modell för att skapa ljud till videos :train2:

2 gillningar

På tal om AGI så finns ett nytt benchmark som heter ARC-AGI som LLMs är rikigt dåliga på men är väldigt lätta för människor.

Här går någon igenom hur han lyckats nå ett högre resultat på det.

Idag är Meta ute och levererar lite mer till open-source världen :sunglasses:

https://x.com/AIatMeta/status/1803107817345393136