Allt är en risk.
Risk = sannolikhet x konsekvens
Vanligaste misstaget folk gör är att utgå från för hög sannolikhet och konsekvens i kombination.
Jag tror att AI hypen krashae är mer sannolikt än att AI kommer vara beslutsfattande om att starta ett globalt kärnvapenkrig.
Att hypen bombar får dock inte samma konsekvenser men jag tror ändå risken är högre än för WW3 by AI och agerar på det. Inte Terminatorscenariot.
Men då blandar man in sannolikheten att man tajmar rätt, vilken är väldigt låg sett på sikt. En gång är inte ett FIRE kapital så att säga.
Då visar det sig att lägsta risken är att faktiskt låta tiden arbeta för en och Just Keep Buying. Om det har sagts mycket redan…