Mythos, Altman og kunsten at blænde AI-kritikere og det digitalt hypekor | Radar
AI-æraen har vel ret beset varet fra omkring november 2022 til nu. Altså fra den dag OpenAI's ChatGPT blev kommercielt tilgængelig for masserne.Siden har AI-selskaberne - anført af selvsamme OpenAI, OpenAI-afskalningen Anthropic og en række mere eller mindre kendte techgiganter gentaget et særligt mønster. Det går noget i stil med: Ny model kan udgøre trussel mod menneskeheden efterfulgt af moderat skuffelse.Senest har Anthropics AI-model med det bevidst mytiske navn Mythos lagt dele af techbranchen i koma.
Claude-programmører risikerer en seksdobling af abonnementspriserne
Anthropic forsøger at presse Claude Code-brugere over på væsentligt dyrere abonnementer.
Anthropic på vej til at åbne egne datacentre i Europa: Søger folk til at stable datacentre på benene
Fremadstormende Anthropic er for første gang på vej til at åbne egne datacentre i Europa.
Topembedsmænd advarer om ny AI-model som mulig cybertrussel mod banker
Ny Claude-model fra Anthropic får IMF og Verdensbanken til at sætte cybersikkerhed højt på dagsordenen.
Selv om Antrophic er blevet sortlistet af Trump anvendes selskabets mytiske cyber-supervåben af spiontjenesten NSA
Mens Trump fører krig i retten mod AI-leverandøren Anthropic, så bruger NSA den selvsamme teknologi. Britisk offentligt AI-sikkerheds-institut har også testet den - og resultaterne maner til ro.
Claude også være designer – går direkte efter Figma
Anthropic har lanceret Claude Design, som kan forvandle en simpel tekstprompt til prototyper, præsentationer og designudkast. Det ligner ikke bare endnu et AI-trick. Det ligner et frontalangreb på de klassiske designværktøjer.
Ny AI-model har rystet it-branchen: Sådan forbereder tidligere sikkerhedschef i Pandora, Vestas og Arla sig | Version2
Sikkerhedseksperter verden over kæmper i disse uger for at forstå konsekvenserne af Anthropics nye Claude Mythos-model. »Den største risiko, jeg ser, er den skala, det giver angriberne,« siger Thomas Zuliani, tidligere it-sikkerhedsdirektør hos en stribe danske selskaber.
AI-lab #29: Mythos fra Anthropic er en milepæl i AI’s historie - eller en Code Red (panik-panik) alt efter, hvordan man lever sit liv
For Anthropic er Mythos en KÆMPE-fjer i hatten. Alle vil gene være venner med dem nu, måske endda også den fjollede, amerikanske regering, der for kort tid siden aktivt prøvede at ødelægge dem, som det første amerikanske firma i historien.
OpenAI klar med spritny og banebrydende konkurrent til Anthropics nye super-model
Den nye AI-model GPT-5.4-cyber fra OpenAI skal konkurrere med Anthropics meget omdiskuterede Mythos-model.
EU blev holdt ude i kulden af Anthropic, og det vækker dyb bekymring: "Europa har ingen planer for at få adgang"
Det er kun amerikanske virksomheder, som har fået tidlig adgang til Anthropic supermodel Mythos, der angiveligt har identificeret mange tusinde uopdagede sikkerhedsfejl i software.
Anthropic på vej med ny version af Claude, der er skræddersyet til Word
Du kan nu bruge Claude som et tilføjelsesprogram direkte i Word og andre Microsofts-programmer.
Anthropics nye AI-model sætter myndigheder i alarmberedskab: Britiske finansbosser indkaldes til sikkerhedsbriefing
De britiske finansmyndigheder har fået travlt med vurdere en række potentielle sikkerhedshuller, som Anthropics nye AI-model har opdaget. I løbet af de kommende uge vil landets finanstop blive indkaldt til en briefing om modellen.
USA's finansminister mødtes med storbanker efter ny AI-model fra Anthropic
Ny avanceret model kan både styrke og svække cybersikkerheden, mens banker og myndigheder vejer risiko op mod muligheder.
Anthropic: Ny Claude-model finder og udnytter sårbarheder på egen hånd | Ingeniøren
Anthropic vil ikke frigive sin nye AI-model for offentligheden fordi en række tech-giganter skal have tid til at styrke deres systemer.
Anthropic: Ny Claude-model finder og udnytte sårbarheder på egen hånd | Version2
Anthropic vil ikke frigive sin nye AI-model for offentligheden fordi en række tech-giganter skal have tid til at styrke deres systemer.