Om AI innebär lika stor förändring som den industriella revolutionen så underskattar många förändringen vi står inför

Han har några spännande påståenden. Jag ser dock två problem med hans typ av argument.

  • Han utgår från det mest extrema, men möjliga, scenariot. Det kan tyckas rimligt att prata om “ifall att”, men jag tror det är lite farligt också. Om det inte slår in så riskerar vi att hamna i en “ni har ropat vargen många gånger förr” situation.
  • Det andra problemet är att han inte är så tydlig med att det kommer ta tid från vi har AGI tills dess att det kan användas brett, även om han nämner något i dessa banor.

Om vi tittar på hastigheten saker kan rullas ut, när folk pratar om massarbetslöshet om något år.

  • Hittills finns det drygt 5-10 miljoner grafikkort i nivå med H100.
  • Även en agent som kör en öppen modell idag kräver minst 1 grafikkort 100%.
  • Även om modellerna blir allt effektivare, så är det inte så troligt att den första versionen av AGI kommer kräva mindre beräkningskraft än vad 1 grafikkort erbjuder. (Mer troligt är att 100 grafikkortet kommer krävas per enhet.)
  • 2027 kanske det finns 20 miljoner av dessa anpassade grafikkort.
  • Även om AGI skulle komma redan 2027, vilket jag inte tror, så kommer det på sin höjd ersätta 80 miljoner arbetare. (24/7 kontra 40 timmars arbetsvecka.)

Samma argument kan göras fysiska AI robotar, även om utvecklingen går fort och mycket kommer hända det närmaste åren, så kommer det ta tid att få upp produktionen.

1 gillning

Har du även sett de 2 där han pratar med mo gawdat ?

En spännande tid vi lever i :popcorn:

En lång men intressant artikel :smiling_face_with_sunglasses:

(Ganska teknisk.)

Om vad? Vad tyckte du var intressant?

Att dom försöker, och får resultat, kring att bryta den kvadratiska kostanden. Likt många har försökt innan dem.

Själv är jag lite tveksam, kommer det gå att få bra prestanda med en linjär komplexitet? Det känns lite som ett fusk om man frågar mig, men jag är inte expert på matte.

1 gillning

En video, 15 min, som pratar om nya Qwen :smiling_face_with_sunglasses:

Här är även lite sammanställning hur den ligger till.

Och ett exempel på mitt eget test, ser helt okej ut.

Ska bli spännande och se hur detta slutar, just nu känns det som en optimering likt DeepSeek R1 :popcorn:

1 gillning

En intressant artikel :smiling_face_with_sunglasses:

Det är spännande och se hur modeller blir bättre på långa arbetsuppgifter, något jag tror att enormt viktigt för att AI agenter ska bli något.

1 gillning

Lite spännande statistik om Claude :smiling_face_with_sunglasses:

Ett intressant citat:

People in higher-income countries are more likely to use Claude, more likely to seek collaboration rather than automation, and more likely to pursue a breadth of uses beyond coding.

Så kom en uppdatering till GPT-5 :train:

https://openai.com/index/introducing-upgrades-to-codex/

En sak som jag fastande för:

During testing, we’ve seen GPT‑5-Codex work independently for more than 7 hours at a time on large, complex tasks, iterating on its implementation, fixing test failures, and ultimately delivering a successful implementation.

Men även detta känns användbart:

1 gillning

Även OpenAI tycks ha släppt en rapport över användarstatistik :smiling_face_with_sunglasses:

https://t.co/Il3KaeFWDe

En trevlig bild med mycket info:

Antalet användare tycks inte minska:

1 gillning

En uppdatering :train:

Kina tycks vara bra på optimera deras modeller :train:

DeepMind är i farten igen, deras bättre version av Deep Think tycks får guld i en programmeringstävling :trophy:

Oj, OpenAI påstår sig vara ännu bättre :train:

Edit:

Ännu ett imponerande påstående, mer häftigt om det är en modell som kan många saker.

1 gillning

Nu har de hunnit testade Qwen 3 Next på lite oberoende frågor, ser imponerande ut :smiling_face_with_sunglasses:

1 gillning

Data till robotar tycks sakta men säkert lösas :robot:

Detta var ett klokt inlägg. Precis den bilden har jag också. AI kommer kunna hjälpa oss med mycket men kunskapen för att få den att göra vad vi vill måste människan bidra med.

Chatgpt är i grunden en enkel språkmodell. Den är givetvis toppen men den är relativt värdelös om man vill få fram något väldigt specifikt inom ett specialistämne. Den kommer givetvis bli bättre men likväl måste den förstå sammanhanget och vilket behov/problem som behöver lösas.

Men den har hjälpt mig mycket med att gräva fram info, gjort anteckningar eller sammanställningar.

De tycks jobba på att få AI agenter att fungera i verkligheten :smiling_face_with_sunglasses:

Detta ser jag som ännu ett litet tecken på att AI agenter är nästa stora grej. Det känns lite tidigt, men tror att de kommer bli större än chat-botar om något år :train:

1 gillning

Nu kanske jag påpekar något irrelevant och gör en höna av en fjäder, men håller nog inte med om det. Moderna modeller är inte bara text-baserade, vilket jag tolkar ditt påstående som.

Några saker som skiljer, jämfört med GPT-3 era modeller:

  • Vi vet att de är multimodala, alltså de är tränade på åtminstone bilder men nog även ljud och lite video.
  • De är tränade för TTC/resonera.
  • De är tränade för att använda verktyg, något de kan göra i deras TTC/resonemang.
  • Det är inte säkert att de bara genererar 1 token i taget, likt tidigare modeller. Nu är just OpenAI väldigt tysta med vad som exakt händer i bakgrunden, så detta är lite spekulation. Både Meta och kinesiska labb har publicerat att man kan övergå till “multi-token prediction”, och man då får bättre resultat.

Jag skulle därför påstå att det är en ganska stor förenkling.