Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
Investor, forfatter, pedagog og Dragon Ball-fan 🐉
🚨 BREAKING: Anthropic brukte nettopp Claude for å finne 22 sikkerhetshull i Firefox.
Ikke teori. Ikke en demo. Virkelige sårbarheter. 14 av dem klassifisert som alvorlig alvorlig.
Det er nesten en femtedel av alle høyalvorlige Firefox-feil som ble fikset i hele 2025.
Om to uker.
Her blir det vilt.
Den første feilen tok Claude 20 minutter å finne. En Use After Free-sårbarhet i Firefox sin JavaScript-motor, den typen som lar angripere overskrive minne med ondsinnet kode.
Mens forskerne fortsatt validerte den første feilen, hadde Claude allerede funnet 50 til.
Ved slutten hadde den skannet nesten 6 000 C++-filer og levert 112 rapporter. Mozilla sendte rettelsene til hundrevis av millioner Firefox-brukere.
Så testet de noe skumlere.
Kunne Claude faktisk utnytte feilene den fant? Ikke bare finne sprekken i veggen, men sparke døren ned?
De kjørte testen hundrevis av ganger.
Brukte 4 000 dollar i API-kreditter.
Claude lyktes i to saker. Bygde en fungerende nettleser-exploit fra bunnen av.
Gapet mellom «finner insekter» og «gjør dem til våpen» eksisterer fortsatt. Foreløpig.
Her er linjen fra avisen som burde holde alle sikkerhetsingeniører våkne om natten:
"Det er usannsynlig at gapet mellom grensemodellenes sårbarhetsoppdagelses- og utnyttelsesevner vil vare særlig lenge."
Altså... AI er for øyeblikket bedre til å hjelpe forsvarere enn angripere. Det vinduet lukker seg.
Sist gang sikkerheten endret seg så raskt, tok det et tiår før bransjen tok igjen. Denne gangen har vi måneder, kanskje mindre.
Kappløpet mellom AI-drevne angripere og AI-drevne forsvarere har nettopp blitt det viktigste våpenkappløpet på internett.
Og de fleste aner ikke at det allerede skjer.

118
🚨 OPPDATERING: Noen har nettopp bygget et enormt bibliotek med OpenClaw-ferdigheter og lagt det ut gratis på GitHub.
Det heter Awesome OpenClaw Skills.
En kuratert samling av ferdige funksjoner du kan koble direkte til OpenClaw-agenter.
Hva som er inni:
→ Ferdigheter innen automatisering, forskning, koding og arbeidsflyter
→ Ferdiglagde verktøy for å utvide OpenClaw umiddelbart
→ Fellesskapsbidrag-ferdigheter du kan gjenbruke og endre
→ Eksempler som viser hvordan du kan bygge dine egne ferdigheter
→ Et sentralt knutepunkt for å oppdage nye OpenClaw-funksjoner
I stedet for å bygge hvert verktøy fra bunnen av...
Du kan bare velge en ferdighet og levere den til agenten din.
(Lenke i kommentarfeltet)

141
🚨 Stanford-forskere avslørte nettopp en merkelig bieffekt av AI som nesten ingen snakker om.
Artikkelen heter "Artificial Hivemind." Og kjernefunnet er urovekkende.
Etter hvert som språkmodellene blir bedre, begynner de også å høres mer og mer likt ut.
Ikke bare innenfor én enkelt modell. På tvers av ulike modeller.
Forskere bygde et datasett kalt INFINITY-CHAT med 26 000 reelle, åpne spørsmål, som kreativ skriving, idémyldring, meninger og råd. Spørsmål hvor det ikke finnes ett eneste riktig svar.
I teorien bør disse promptene gi stor variasjon.
Men det motsatte skjedde.
To mønstre dukket opp:
1) Intra-modell repetisjon
Den samme modellen gir stadig svært like svar på tvers av løp.
2) Homogenitet mellom modeller
Helt forskjellige modeller gir slående like svar.
Med andre ord:
I stedet for tusenvis av unike perspektiver...
Vi får de samme få ideene gjenbrukt om og om igjen.
Forfatterne kaller dette «Kunstig Hivemind».
Det skjer fordi de fleste frontmodeller er trent på lignende data, optimalisert med lignende belønningsmodeller, og justert ved hjelp av lignende menneskelig tilbakemelding.
Så selv når du spør om noe åpent som:
• «Skriv et dikt om tid»
• «Foreslå kreative oppstartsideer»
• «Gi livsråd»
Mange modeller konvergerer mot de samme formuleringene, metaforene og resonnementmønstrene.
Den skremmende implikasjonen handler ikke om AI-kvalitet.
Det handler om kultur.
Hvis milliarder av mennesker er avhengige av de samme systemene for ideer, skriving, idémyldring og tenkning...
KI kan gradvis komprimere mangfoldet i menneskelig tenkning.
Ikke fordi den prøver.
Men fordi modellene selv driver mot de samme svarene.
Det er den virkelige risikoen artikkelen fremhever.
Ikke at AI blir smartere enn mennesker.
Men at alle begynner å tenke som den samme maskinen.

104
Topp
Rangering
Favoritter
