Om AI innebär lika stor förändring som den industriella revolutionen så underskattar många förändringen vi står inför

Intressant take från ett VC-bolag:

The Rundown: Venture capital powerhouse Andreesen Horowitz (> a16z) is reportedly amassin a substantial arsenal of GPUs, including coveted Nvidia H100s, as part of the company’s strategy to attract and support AI startups.

The details:

  • A16z has already secured thousands of AI chips, with plans to expand to over 20,000 GPUs to rival the compute power of major AI labs.
  • The initiative, called ‘Oxygen’, will allow the VC firm to to rent their chips to its portfolio companies at below-market rates in exchange for equity.
  • Video generation platform Luma AI, an early participant in the program, cited GPU access as a key factor in choosing a16z as their lead investor.
  • Over the last two years, a16z has made the second most generative AI-related investments of any venture firm, including funding for xAI, Mistral, OpenAI, and more.

Why it matters: By offering startups access to scarce GPU resources, a16z is positioning itself as more than just a source of capital. This strategy could reshape the AI VC landscape by giving portfolio companies a significant edge — especially for smaller startups, given the pricey AI chips needed to compete.

1 gillning

Tydligen vill de nu ha en fabrik utan anställda, kanske inte så lönt du flytta fabriker till billigare länder snart…

1 gillning

CNN verkar också vilja ha färre anställda.

Det finns tydligen ett trick för att få veta om du pratar med en AI :sweat_smile: vi får hoppas att detta kommer fungera även i framtiden…

4 gillningar

Goldman Sachs kom med en tung lunta häromveckan. Meningarna om AI är minst sagt delade bland analytikerna och andra intervjuade, men någon industriell revolution verkar de inte tro på i alla fall, inte inom överskådlig tid.

Som AI-skeptiker tyckte jag intervjun med Jim Covello (sida 10) var väldigt läsvärd, hans uppfattning ligger rätt nära min egen. Covello är en doldis men har viss namnkunnighet inom halvledarindustrin; han kan branschen. Han har mycket svårt att se att det går att få rimlig avkastning på de enorma kostnaderna för LLM:er, och påpekar bland annat att hårdvaran allt hänger på i praktiken är ett oligopol eller på gränsen till ett monopol, kontrollerat av Nvidia och några av deras underleverantörer (främst TSMC och ASML), vilket gör det mycket osannolikt att hårdvaran kommer bli särskilt mycket billigare. Han drar det också ännu längre, och säger bl.a. “[t]he idea that technology typically starts out expensive before becoming cheaper is revisionist history”.

Jag tar mig friheten att citera en del (min fetstil nedan):

Allison Nathan: You haven’t bought into the current generative AI enthusiasm nearly as much as many others. Why is that?

Jim Covello: My main concern is that the substantial cost to develop and run AI technology means that AI applications must solve extremely complex and important problems for enterprises to earn an appropriate return on investment (ROI). We estimate that the AI infrastructure buildout will cost over $1tn in the next several years alone, which includes spending on data centers, utilities, and applications. So, the crucial question is: What $1tn problem will AI solve? Replacing low-wage jobs with tremendously costly technology is basically the polar opposite of the prior technology transitions I’ve witnessed in my thirty years of closely following the tech industry.

Many people attempt to compare AI today to the early days of the internet. But even in its infancy, the internet was a low-cost technology solution that enabled e-commerce to replace costly incumbent solutions. Amazon could sell books at a lower cost than Barnes & Noble because it didn’t have to maintain costly brick-and-mortar locations. Fast forward three decades, and Web 2.0 is still providing cheaper solutions that are disrupting more expensive solutions, such as Uber displacing limousine services. While the question of whether AI technology will ever deliver on the promise many people are excited about today is certainly debatable, the less debatable point is that AI technology is exceptionally expensive, and to justify those costs, the technology must be able to solve complex problems, which it isn’t designed to do.

[…]

Many people seem to believe that AI will be the most important technological invention of their lifetime, but I don’t agree given the extent to which the internet, cell phones, and laptops have fundamentally transformed our daily lives, enabling us to do things never before possible, like make calls, compute and shop from anywhere. Currently, AI has shown the most promise in making existing processes—like coding—more efficient, although estimates of even these efficiency improvements have declined, and the cost of utilizing the technology to solve tasks is much higher than existing methods. For example, we’ve found that AI can update historical data in our company models more quickly than doing so manually, but at six times the cost.

More broadly, people generally substantially overestimate what the technology is capable of today. In our experience, even basic summarization tasks often yield illegible and nonsensical results. This is not a matter of just some tweaks being required here and there; despite its expensive price tag, the technology is nowhere near where it needs to be in order to be useful for even such basic tasks. And I struggle to believe that the technology will ever achieve the cognitive reasoning required to substantially augment or replace human interactions. Humans add the most value to complex tasks by identifying and understanding outliers and nuance in a way that it is difficult to imagine a model trained on historical data would ever be able to do.

Allison Nathan: But wasn’t the transformative potential of the technologies you mentioned difficult to predict early on? So, why are you confident that AI won’t eventually prove to be just as—or even more—transformative?

Jim Covello: The idea that the transformative potential of the internet and smartphones wasn’t understood early on is false. I was a semiconductor analyst when smartphones were first introduced and sat through literally hundreds of presentations in the early 2000s about the future of the smartphone and its functionality, with much of it playing out just as the industry had expected. One example was the integration of GPS into smartphones, which wasn’t yet ready for prime time but was predicted to replace the clunky GPS systems commonly found in rental cars at the time. The roadmap on what other technologies would eventually be able to do also existed at their inception. No comparable roadmap exists today. AI bulls seem to just trust that use cases will proliferate as the technology evolves. But eighteen months after the introduction of generative AI to the world, not one truly transformative—let alone cost-effective—application has been found.

[…]

I place low odds on AI-related revenue expansion because I don’t think the technology is, or will likely be, smart enough to make employees smarter. Even one of the most plausible use cases of AI, improving search functionality, is much more likely to enable employees to find information faster than enable them to find better information. And if AI’s benefits remain largely limited to efficiency improvements, that probably won’t lead to multiple expansion because cost savings just get arbitraged away. If a company can use a robot to improve efficiency, so can the company’s competitors. So, a company won’t be able to charge more or increase margins.

Han rundar av med att säga att han tror att om vi inte ser några riktigt revolutionerande tillämpningar inom 12-18 månader så kan investerarnas tålamod börja tryta. Men han säger också att det är bara att köpa på sig Nvidia och TSMC; de är de enda som verkligen tjänar pengar på detta så länge experimentet pågår. Men om han får fel och vi får en explosion av AI-produkter så är det ändå en bra investering.

Också på tapeten nyligen är detta podcast-avsnitt innehållande ett långt och djuplodande samtal med François Chollet, AI-forskare på Google. Det länkades tidigare i tråden men då endast som lång podcast, men nu finns en transkribering också för folk som hellre läser. Den röda tråden i samtalet är att han är helt övertygad om att AGI inte kan uppnås med LLM:er, eller ens transformer-arkitekturen och deep learning i allmänhet, och han är argumenterar väldigt övertygande för den ståndpunkten. Han förklarar väldigt bra varför LLM:er är som nån som har en formelsamling men har glömt all algebra - de kan t.ex. lösa Caesar-chiffer med 3 eller 5 förflyttningar, för det är såpass vanligt i träningsdatan att de har algoritmen inbyggd, men de kan inte generalisera den till t.ex. 9 förflyttningar. Mycket läsvärt, missa inte, för över en timme in i samtalet kommer t.ex. såna här smockor:

It’s actually really sad that frontier research is no longer being published. If you look back four years ago, everything was just openly shared. All of the state-of-the-art results were published. This is no longer the case.

OpenAI single-handedly changed the game. OpenAI basically set back progress towards AGI by quite a few years, probably like 5-10 years. That’s for two reasons. One is that they caused this complete closing down of frontier research publishing.

But they also triggered this initial burst of hype around LLMs. Now LLMs have sucked the oxygen out of the room. Everyone is just doing LLMs. I see LLMs as more of an off-ramp on the path to AGI actually. All these new resources are actually going to LLMs instead of everything else they could be going to.

If you look further into the past to like 2015 or 2016, there were like a thousand times fewer people doing AI back then. Yet the rate of progress was higher because people were exploring more directions. The world felt more open-ended. You could just go and try. You could have a cool idea of a launch, try it, and get some interesting results. There was this energy. Now everyone is very much doing some variation of the same thing.

7 gillningar

Intressant rapport med många bra grafer :sunglasses:

En tanke som jag fick nu då jag har hört den flera gånger men inte riktigt får ihop den. LLM är helt fel väg att gå för att uppnå AGI, företagen publicerat inte längre forskning kring deras nya modeller och därför kommer det att ta 5-10 år längre att uppnå AGI. Hmm :thinking: om nu LLM är helt fel, då gör det väl inte så mycket att de inte publicerar hur de gjorde GPT-4o.

Jag håller nog inte med om att det inte finns några områden där dagens AI inte kan göra saker billigare.

  • Generera en bild billigare än en konstnär.
  • Översätta billigare.
  • Skapa en PowerPoint template billigare.
  • Agera bollplank billigare.
2 gillningar

Någon har tankar kring självkörande bilar :train2:

1 gillning

Lite intressanta tankar :sunglasses:

Den juridiska striden fortsätter :popcorn:

Spännande om man kan få system 2 tankar in i en LLM :train2:

Ännu någon som testar något nytt, denna gången med RNN :train2:

För mig låter det lite som att han slår in en öppen dörr - “AI är dyrt och dåligt”. Alla mer storslagna projektioner om AI:ns påverkan på samhället baseras ju på att förmågan hos AI-modellerna fortsätter i samma eller högre takt, tillsammans med antingen kostnadseffektiviseringar i tillverkningen av hårdvaran, eller effektivseringar av algoritmerna. Få hävdar väl att AI kommer ta över världen med dagens förmåga till dagens pris?

Fast här säger han bara att AI inte kommer ge aktieägarna mer pengar? Marginalerna på tjänsterna/produkterna som säljs kan stå vara oförändrade samtidigt som kostnaden för konsumenterna går ner, vilket är det som gynnar männskligheten på riktigt. Vi kan göra mer för mindre.

2 gillningar

Poängen är ju att dramatiska kostnadseffektiviseringar i hårdvaran verkar osannolika, dels därför att halvledarindustrin i princip nått vägs ände rent fysiskt, och dels pga hårdvaruoligopolet. Så på den fronten ser det mörkt ut. Bättre algoritmer kan man ju naturligtvis hoppas på, men nu säger ju tunga AI-forskare att LLM:er troligen inte är vägen framåt. Fokus i branschen ligger ju också betydligt mer på att försöka få bättre prestanda genom att kasta beräkningsresurser på problemet: man gör modellerna ständigt större och större, vilket gör att kostnaderna rusar iväg i en otrolig takt. Så här lät det i en artikel i förra veckan:

Anthropic CEO Dario Amodei said in the In Good Company podcast that AI models in development today can cost up to $1 billion to train. Current models like ChatGPT-4o only cost about $100 million, but he expects the cost of training these models to go up to $10 or even $100 billion in as little as three years from now.

Detta kräver sådana astronomiska datorresurser att det är ett allvarligt problem för elnätet på många håll; Goldman Sachs-rapporten talar om att enorma investeringar i elnät och kraftverk kommer att vara nödvändiga inom de närmaste åren om det fortsätter så här.

Kostnaderna verkar alltså vara på väg brant uppåt, inte neråt.

Ännu en spännande innovation som gör AI mer användbart :sunglasses:

https://x.com/msfeldstein/status/1812250580578103749

Den typen av interaktivitet gör genererande AI väldigt mycket coolare. Det här är en av de riktigt häftiga grejerna med Stable Diffusion Turbo också. Den genererar bilden snabbare än man skriver.

1 gillning

Precis, idag är tekniken väldigt ung och full med dåliga buggar. Men ge det några år så kommer vi ha bättre versioner, med betydligt mer användarvänliga system och mycket mer möjlighet till anpassning :train2:

Lite oroande om detta stämmer :face_with_peeking_eye:

Läs mer:

1 gillning

Här kommer en bra video på 13 min om att skapa en modell av verkligheten i en AI. Intressent att se att diskreta värden gav bättre resultat när världen ändrades, inte vad jag hade trott :exploding_head:

Samma person har även en 7 min video på att lära en AI nya saker, detta är något jag tror kommer bli enormt viktigt de kommande åren :sunglasses:

1 gillning

Om någon undrar över när olika modeller lär komma ut, så har någon sammanställt alla rykten i en fin lite bild :sunglasses:

1 gillning

Själv tror jag mycket på Mixture of Experts, men 1 miljon låter lite väl galet :thinking: