av Mikael Winterkvist | nov 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

I augusti presenterade OpenAI GPT-5, en större uppdatering av ChatGPT. Tre månader senare återkommer företaget med GPT-5.1, som beskrivs som varmare, mer intelligent och bättre på att följa instruktioner.
Enligt OpenAI har GPT-5.1 förbättringar i både kommunikationsstil och intelligens. Det gäller både instant-modellen och thinking-modellen. Instant-modellen är den mest använda och ska nu ge mer naturliga och mindre mallade svar med ett varmare och mer samtalstonat uttryck som standard. Thinking-modellen är anpassad för att vara snabbare vid enklare uppgifter och lägga mer tid på uppgifter som kräver eftertanke, samtidigt som den behåller den varmare tonen.
Anpassa tonen
OpenAI utvecklar dessutom nya, mer lättbegripliga inställningar som gör att ChatGPT enklare kan anpassa tonen efter användarens önskemål. Personlighetsvalen omfattar bland annat standard, vänlig, effektiv, professionell, öppen och mer lekfull. För instant-modellen lyfts även förbättrad förmåga att följa instruktioner fram, och OpenAI visar exempel där modellen korrekt svarar med exakt sex ord när den instrueras att göra det.
GPT-5.1 Thinking har en ny avvägning som gör den snabb vid korta uppgifter och mer uthållig vid komplexa uppgifter. Precis som i GPT-5 används en automatiserad funktion som väljer den modell som passar bäst för varje uppgift, men användaren kan även själv välja vilken modell som ska användas.
Utrullningen
GPT-5.1 börjar rullas ut i dag för betalande användare på Pro-, Plus-, Go- och Business-planer. Utrullningen fortsätter de närmaste dagarna och därefter får även gratisanvändare tillgång till modellen. GPT-5 kommer finnas kvar i minst tre månader för betalande användare, eftersom OpenAI tidigare fått stark kritik när äldre modeller planerades tas bort direkt. Apple uppger samtidigt att ChatGPT via Siri med Apple Intelligence använder GPT-5 i och med iOS 26, och uppdatering till GPT-5.1 väntas i en kommande version.
Här kan du läsa mer om den nya versionen.
Läs mer
Ankarfrågor håller ChatGPT på rätt spår
Funktionen som gör ChatGPT mer relevant och effektiv i vardagen
OpenAI lanserar ChatGPT Atlas – webbläsaren med inbyggd AI-assistent
av Mikael Winterkvist | nov 9, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

EU överväger att pausa delar av sin nya och omfattande AI-lagstiftning efter hårt tryck från amerikanska teknikjättar, den amerikanska regeringen och europeiska teknikorganisationer. Enligt Financial Times handlar det om en möjlig tillfällig reträtt i arbetet med den så kallade AI Act – den mest omfattande lagstiftningen i sitt slag i världen.
Lagen har mött motstånd från flera håll, bland annat inom bank- och energisektorn, som varnat för att de komplexa reglerna riskerar att hämma innovation och bromsa utveckling. En undersökning från branschorganisationen The App Association visar att nästan 60 procent av Europas mindre teknikföretag upplevt förseningar i sina projekt på grund av regelverket. Mindre än en tredjedel uppger att de känner sig säkra på att kunna uppfylla kraven i den nya lagen.
AI Act
Om EU väljer att pausa delar av AI Act skulle det ses som en stor seger för amerikanska teknikbolag och för USA:s regering, som länge drivit linjen om så få begränsningar som möjligt för att underlätta utveckling och behålla försprånget gentemot Kina.
Ett tillfälligt stopp kan samtidigt gynna europeiska teknikföretag som hittills brottats med både regelbörda och bristande klarhet kring hur lagstiftningen ska tillämpas. I kombination med ökade statliga investeringar i forskning och utveckling kan en sådan paus ge europeisk teknikindustri andrum och bidra till att befästa EU som den tredje största globala aktören på AI-området, efter USA och Kina.
Källa: Semafor
Läs mer
Stor europeisk studie: AI-assistenter sprider felaktiga nyheter
Apple går till hårt angrepp mot EU – anklagar unionen för hyckleri
Apple tar bort Wi-Fi-synk mellan iPhone och Apple Watch i EU
Apple lanserar Live Translation för AirPods i EU före årsskiftet 2025
av Mikael Winterkvist | nov 9, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Trots rubriker som påstår motsatsen kommer Siri inte att drivas av Gemini, ChatGPT eller någon annan extern modell. Den nya versionen bygger på Apples egna säkra och slutna språkmodeller – Apple Foundation Models – som ligger till grund för hela satsningen på Apple Intelligence.
Det finns numera en närmast helt etablerad uppfattning om att Apple ligger efter i utvecklingen av artificiell intelligens, har tappat talang och nu desperat försöker hinna ikapp konkurrenterna. Den bilden har spridits eftersom den säljer nyheter, inte för att den stämmer. Apple har, som alltid, valt att utveckla i det tysta och lansera först när tekniken fungerar på riktigt. Det är en sanning med modifikation att Apple ligger efter och frågan är också hur mycket Apple i så fall ligger efter?
Apple Foundation Models
Samtidigt som andra företag har lanserat påstått revolutionerande produkter med höga löften och ibland bristande resultat, har Apple arbetat långsamt och metodiskt. Bolagets strategi för AI är uppdelad i flera nivåer. I grunden finns Apple Foundation Models – egna språkmodeller som ska driva nästa generation av Siri. Den nya versionen kommer att kunna tolka fler kommandon och förstå naturligt språk bättre, men utan att förvandlas till en chattbot. Siri ska inte föra samtal, utan fungera som ett effektivt verktyg som förstår sammanhang och utför uppgifter.
Det mest avgörande steget i utvecklingen är kopplingen till det så kallade App Intent-systemet. Det gör att Siri kan förstå och utföra funktioner i appar utan att användaren behöver bygga genvägar manuellt. Med en enkel fras ska det gå att skapa eller aktivera hela arbetsflöden, skicka information, styra hemfunktioner och söka i innehåll på skärmen. Denna funktion är också grunden för Apples vision om en helt röststyrd dator – något som hittills ingen konkurrent lyckats med.
Externa modeller
Apple planerar dessutom att integrera externa modeller genom ett system kallat Private Cloud Compute. Det innebär att företag som Google, OpenAI eller Anthropic kan låta sina modeller användas i Apples miljö, men under full kontroll av Apple. Frågor som kräver extern information kan till exempel skickas till en version av Gemini som körs på Apples egna servrar, utan att användardata lämnar systemet. När förfrågan är klar raderas informationen direkt. På så sätt får användaren tillgång till avancerade AI-modeller utan att ge upp sin integritet.
Till skillnad från många konkurrenter är Apples AI-infrastruktur byggd på förnybar energi. Alla beräkningar i Private Cloud Compute drivs med grön el, och data lagras under strikt kryptering. Det gör att Apple kan erbjuda ett system som är både säkert, effektivt och miljömässigt hållbart.
Inte nöjd
Lanseringen av Apple Intelligence försenades under 2025 vilket har tolkats som ett misslyckande, men orsaken var även att Apple inte var nöjt med noggrannheten och stabiliteten. I stället för att lansera ofärdiga funktioner, som andra aktörer gjort för att kunna säga att de har AI, valde Apple att vänta. Nästa version av Siri väntas komma under våren 2026, och enligt uppgifter är det den mest omfattande ombyggnaden sedan röstassistenten introducerades.
Kritiker har kallat Apples frånvaro av snabba AI-lanseringar som ett tecken på stagnation. I verkligheten har bolaget fortsatt att förbättra sina kärnteknologier: chipdesign, energieffektivitet, batterier och bildbehandling. De är byggstenarna som gör det möjligt att driva avancerad AI lokalt, utan ständig molnuppkoppling.
När de flesta konkurrenter nu försöker hålla uppe intresset med påkostade men svajiga AI-demonstrationer har Apple valt en annan väg. I stället för att bygga på hype bygger de ett ekosystem där användarna står i centrum – inte datainsamlingen.
Planen
Planen för 2026 är att Apple Intelligence ska genomsyra hela produktlinjen: iPhone, iPad, Mac och Vision Pro. AI ska inte vara en egen app, utan ett inbyggt skikt i operativsystemet. Det är också då Siri får sin verkliga omstart – med minne, kontext och förståelse utan att tumma på säkerhet eller integritet.
När AI-hysterin till slut mattas av kommer frågan inte längre handla om vem som lanserade först, utan vem som byggde något användbart, säkert och hållbart. Det är där Apple planerar att ta ledningen. I en värld där artificiell intelligens byggts på oetisk datainsamling vill Apple visa att tekniken kan existera på ett sätt som respekterar både människan och miljön.
Källa: Techspot
Läs mer
Apple har köpt mest bolag under 2023 och de flesta av dem var AI-bolag
Apple gör helt rätt som inte kastar sig över AI och vräker ut nya funktioner utan koll
av Mikael Winterkvist | nov 9, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Calgary Flames, ett av lagen i den nordamerikanska hockeyligan NHL, har haft en av de sämsta inledningarna i klubbens historia. Efter fjorton matcher hade laget bara tre segrar, och pressen på huvudtränaren Ryan Huska ökade. När traditionell matchanalys och scoutingrapporter inte gav resultat valde Huska att ta till ett oväntat verktyg – en öppen AI-chattbot.
I den klubbeproducerade dokumentärserien The Chase, som följer laget bakom kulisserna, berättade Huska att han tillbringat natten innan ett lagmöte med att använda ChatGPT. Han beskrev det som att han “föll ner i ett kaninhål” när han matade in statistik från lagets fem senaste matcher. Siffrorna gällde bland annat skottprocent, antal avslut och projektioner för resten av säsongen. Syftet var att försöka förstå varför laget hade så svårt att göra mål.
ChatGPT bearbetade informationen och gav, enligt Huska, en uppskattning av att Flames skulle kunna snitta omkring 2,36 mål per match om trenden fortsatte. Det skulle placera laget bland de minst målfarliga i ligan. Tränaren använde siffran som motivation snarare än som en prognos, för att utmana spelarna att skapa fler målchanser även utan någon uttalad stjärnforward i truppen.
Delad
Reaktionen i hockeyvärlden blev delad. Analytiker och teknikexperter ifrågasatte beslutet att använda ChatGPT för statistiska beräkningar, eftersom systemet inte är byggt för matematiska analyser eller prediktiva modeller. Till skillnad från verktyg som R, Pythons Pandas eller specialiserade maskininlärningssystem för sportdata arbetar ChatGPT med språkliga mönster, inte med faktiska beräkningar.
Om Huska matade in spelarstatistik och bad om projektioner kan chattboten ha genererat svar utifrån språkliga sannolikheter snarare än faktiska numeriska samband. Resultatet kan låta trovärdigt men sakna exakta beräkningar. Det är ett känt problem att generativa AI-system kan skapa så kallade hallucinationer – påhittade eller felaktiga uppgifter som presenteras som fakta. OpenAI har vid flera tillfällen varnat för att använda ChatGPT som beslutsunderlag vid analys eller databeräkning.
Tränare
De flesta tränare inom professionell idrott som arbetar med dataanalys använder beprövade modeller, sensorer och maskininlärning som tränats specifikt för spelanalys. ChatGPT är däremot byggt för att tolka naturligt språk, inte för att förutse prestationer. Därför ses Haskas experiment snarare som ett exempel på hur tillgänglig AI-tekniken har blivit – när ett mångmiljonlag i NHL tar till samma gratisverktyg som används till skoluppsatser, kodsnuttar och recept.
Källa: TechSpot
Läs mer
Så har pajkastningen brutit ut bland cykloperna – det är slutspel i ishockey
Vi kan inte ha det så här i svensk ishockey
av Mikael Winterkvist | nov 8, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Apple uppges välja Googles Gemini för sin kommande AI-lösning kopplad till nya Siri och det är ett logiskt beslut från en historisk synvinkel. Apple och Google har gjort affärer med varandra sedan årtionden tillbaka.
Nu ska tilläggas att det finns en enda källa till uppgifterna – Bloomberg, men här finns det som sagt tradition, historia och utifrån det logik i uppgifterna. Google, betalar som bekant, Apple miljarder, dollar, årligen för att få ha sin sökmotor som standardval i Apple enheter. Under rättegången mot Google så har det läckt ut uppgifter som pekar mot att det handlar om 4 till 8 miljarder dollar, årligen.
Ingen liten affärsöverenskommelse med andra ord och ett avtal som döper bång tid tillbaka i tiden.
Andra hållet
Nu kan pengar rinna åt andra hållet för enligt uppgifterna så köper Apple in Google Gemini, en version som kan köras på Apples egna servrar, som inte kommer att samla in data och som kommer att vara omärkt (white label). det kommer alltså inte att synas, utåt att det är Gemini det handlar om.
Apple uppges ha tittat närmare på andra lösningar, ChatGPT och Claude bland andra men bestämt sig för Google och Gemini. Det finns inga säkre uppgifter om varför men som sagt – Apple Buch Google har gjort stora affärer med varandra förr och båda sidor vet vad de får – en säkerhet som inte finns med andra aktörer. Dessutom så ska alltså AI-lösningen läggas in av Apple, på Apples servrar och köras enligt Apple upplägg, lokalt i första hand och utan tt det samla sin en massa data.
Frågan är om övriga aktörer kan tanka sig att gå med på att deras lösning används av Apple utan att det syns utåt?
Produkter
Frågan är då vad detta spelar för roll för oss användare och hur det påverkar vårt sätt att använda Apples produkter. tjänster och funktioner?
Inte alls, skulle jag säga därför att få eller ingen bryr sig om vem som levererat lösningen – om den fungerar och inte stjäl dina data. För Apple kan det naturligtvis svida en del förr att inte lyckas plocka fram en helt egen lösning men för oss användare betyder det lite eller som sagt, ingenting.
Ge mig en användbar funktion, AI, se till att den är lätt att använda, levererar goda resultat och gör det jag förväntar mig att en säger att den ska göra så bryr jag mig inte ett vitten om det är Google, Claude eller OpenAI som levererat lösningen.
Jag har svårt att se att någon annan skulle göra det heller och det är på det hela taget ingen större skillnad mellan att köpa in och licensiera en lösning än att göra det Apple brukar – köpa hela företag.
Tidigare texter
Jag har hela tiden sagt att om du har världens största och mest välfyllda kassakista så kan du köpa den kompetens som du eventuellt saknar.
Februari 2024
Apple har köpt mest bolag under 2023 och de flesta av dem var AI-bolag
Nu kommer även uppgifter om att Apple landat vid förhandlingsbordet hos Google för att diskutera en eventuell licensiering av Googles AI-motor, Gemini.
Mars 2024
Apple, AI och betydelsen av en gigantisk kassakista
Läs mer
Tim Cook tillbakavisar påståenden om att Apple har problem med nya Siri
Apple planerar ny Siri – med Googles Gemini under ytan
av Mikael Winterkvist | nov 8, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Forskare har upptäckt flera allvarliga svagheter i OpenAIs ChatGPT som kan göra det möjligt för angripare att komma åt privat information ur användarnas chathistorik och sparade minnen.
Totalt rör det sig om sju sårbarheter som främst beror på hur ChatGPT och dess hjälpsystem SearchGPT beter sig vid webbsökningar, sidläsning och URL-hantering.
Enligt säkerhetsföretaget Tenable, som ligger bakom upptäckten, kan miljontals användare vara utsatta. I sin rapport skriver forskarna Moshe Bernstein och Liv Matan att de genom att kombinera de olika bristerna kunde skapa fungerande attacker som utnyttjar indirekta promptinjektioner, kringgår säkerhetsfilter, stjäl användardata och skapar bestående tillgång till systemet.
Upptäckten lägger till ännu ett lager av oro kring säkerheten i stora språkmodeller. Sedan ChatGPT lanserades offentligt 2022 har forskare gång på gång visat hur promptinjektioner, dataläckor och så kallad jailbreaking kan utnyttjas på sätt som är svåra att skydda sig mot. Tenables rapport varnar företag för att använda AI-chattbottar i sina arbetsflöden utan att fullt ut förstå säkerhetsriskerna.
Sju sårbarheter i ChatGPT
De sju svagheterna har sitt ursprung i hur ChatGPT behandlar instruktioner från externa källor som webbsidor, sökresultat, bloggkommentarer och skapade länkar. En av dem är en indirekt promptinjektion, där angripare kan gömma instruktioner i en webbsidas kommentarsfält. Om en användare sedan ber ChatGPT sammanfatta sidan, följer boten instruktionerna och kan till exempel skicka en länk till en skadlig sajt.
En annan sårbarhet gäller OpenAIs funktion som låter användare skapa frågor direkt via URL:er, till exempel https://chatgpt.com/?q={Prompt}. Eftersom ChatGPT automatiskt skickar vidare frågan som finns i adressen, kan angripare skapa bedrägliga länkar som injicerar skadliga kommandon när de klickas på.
Forskarna upptäckte också att ChatGPT visar ett implicit förtroende för domänen bing.com. Genom att registrera skadliga webbplatser på Bing och använda sökmotorns spårningslänkar kan angripare kringgå ChatGPT:s säkerhetsfilter.
Ytterligare en metod, kallad konversationsinjektion, utnyttjar hur ChatGPT sparar hela samtalshistoriken. Om SearchGPT läser in en webbsida med skadliga instruktioner kan ChatGPT senare följa dem direkt ur minnet och på så sätt infektera sin egen konversation.
Bland de mest oroande fynden finns en så kallad zero-click-sårbarhet. Den innebär att en användare kan drabbas utan att klicka på någonting – det räcker att ChatGPT söker efter information och råkar hamna på en manipulerad sida. För vanliga användare är detta särskilt riskfyllt eftersom ingen teknisk åtgärd krävs för att bli utsatt.
Flera vägar för attacker
Tenable bedömer att välresurserade angripargrupper, som statliga aktörer eller avancerade hackernätverk, skulle kunna utnyttja dessa sårbarheter i breda kampanjer. Ett enklare scenario kan vara att någon placerar skadliga kommentarer på bloggar som ChatGPT sedan läser in, vilket gör att chatboten lagrar falska preferenser eller länkar till nätfiskesidor.
Företaget genomförde sina tester främst på ChatGPT-4o men bekräftar att flera av bristerna även gäller den nyare modellen ChatGPT-5. Tenable rapporterade sårbarheterna till OpenAI i april, men det är oklart om åtgärder vidtagits. En del av felen har varit svåra att återskapa, medan andra fortfarande finns kvar.
”Huvudpoängen är att medelsvåra och allvarliga brister kan kedjas ihop till en kritisk attackväg”, säger Moshe Bernstein. ”Var för sig är de oroande, men tillsammans kan de användas för att gå från injektion och säkerhetsförbikoppling till datastöld och permanent åtkomst.”
Källa:
Tenable
Läs mer
OpenAI lanserar ChatGPT Atlas – webbläsaren med inbyggd AI-assistent
Nya siffror visar hur ChatGPT hanterar samtal om psykisk ohälsa