{ "@context": "https://schema.org", "@type": "NewsArticle", "headline": "Cisco ontwikkelt AI met 30 jaar securityervaring", "description": "Cisco ontwikkelt een nieuw AI-model met 17 miljard parameters, gebaseerd op 30 jaar securitydata, voor betere dreigingsdetectie en advies.", "articleBody": "Securitybedrijven gebruiken kleine AI-modellen om bedrijven te beschermen. Cisco verdubbelt echter het aantal parameters van 8 miljard naar 17 miljard. Dit nieuwe model bevat 30 jaar aan threat intelligence van Cisco Talos. Het is geen opvolger van het eerdere Foundation-Sec-8B, aldus Cisco. Momenteel gebruikt Cisco Foundation-Sec-8B, een model met acht miljard parameters dat in verschillende producten is geïntegreerd. Dit model analyseert security alerts, controleert code op kwetsbaarheden en stelt workflows voor die de beveiliging prioriteren. Het nieuwe model, dat nog geen naam heeft, is ambitieuzer en moet zowel dreigingen detecteren als stappen adviseren om deze cybergevaren af te wenden. Tijdens Cisco Live Asia-Pacific in Melbourne kondigde Raj Chopra, senior vice president en chief product officer voor security, het nieuwe model met 17 miljard parameters aan. The Register berichtte hier als eerste over. Het model traint op threat intelligence, incident summaries en red team playbooks die Cisco heeft verzameld. Chopra benadrukt dat het Talos-team dertig jaar aan data bijdraagt aan de training, waardoor het model veelzijdig moet zijn in het detecteren en verdedigen tegen dreigingen. Het nieuwe model is dus geen directe opvolger van Foundation-Sec-8B, vertelt Chopra aan The Register. \"We willen een model bouwen dat zowel dreigingen detecteert als stappen adviseert om ze aan te pakken. Daarvoor hebben we een uitgebreid model nodig.\" Het model verschijnt \"na Kerstmis, maar niet ver daarna.\" Cisco werkt volgens Chopra aan \"een hele phalanx\" nieuwe modellen en AI-initiatieven. Hij wijst op de late-oktober release van een update voor het SecureBERT-model, een tool voor securityprofessionals. Cisco hielp de ontwikkelaars de performance \"manyfold\" te verbeteren in de nieuwe versie. Meerdere speerworpen die op hetzelfde securityprobleem mikken, met andere woorden. We vernamen in april al dat Cisco grote plannen heeft met het bouwen van eigen AI-modellen. Het destijds opgerichte Foundation AI moet binnen Cisco meer dan alleen security verzorgen, maar die tak van sport krijgt momenteel duidelijk wel de focus. Yaron Singer is verantwoordelijk voor Foundation AI en leidde eerder het door Cisco overgenomen Robust Intelligence. De taak van Cisco's AI-tak is voornamelijk wetenschappelijk van aard, en in de geest van open onderzoek verschijnen de modellen dan ook als open-source LLM's. Cisco ontwikkelt LLM's omdat organisaties volgens het bedrijf een mengelmoes nodig hebben van generieke securitydata en informatie over hun eigen omgeving. De modellen zijn open-source, maar de AI-inspanningen zijn niet volledig altruïstisch, merkt The Register op. Cisco gebruikt de modellen in eigen producten en positioneert zijn Splunk-tools als de beste manier voor klanten om hun eigen data te analyseren. Dat is logisch, maar we verwachten niet dat de LLM's voor security zomaar achter een closed-source muur verdwijnen. Dit is omdat generatieve AI-modellen eigenlijk nog niet al te volwassen zijn voor securitydoeleinden. De oplossing hiervoor blijkt om kleine AI-modellen te bouwen op hoogwaardige data. Eigenlijk gaat het dus om Small Language Models (SLM's) die op relatief eenvoudige hardware kan draaien. Het alternatief zou zijn om de grootste AI-modellen van bijvoorbeeld OpenAI of Anthropic via een API te draaien, maar deze LLM's zijn niet getraind op hoogwaardige securitydata. Ze missen daardoor de accuratesse om nuttig te zijn en omdat ze closed-source zijn, zijn ze niet aanpasbaar of te controleren op de trainingsdata. Daarnaast vereisen ze een internetverbinding om te functioneren. Uit eigen gebruik merken we dat de stap tussen 8 miljard parameters en 17 (of omstreken) miljard groot is. De foutgevoeligheid van alle kleinere modellen is hoog als ze veel taken moeten uitvoeren, maar enkel de parameters moeten niet gelden als meetlat voor de vaardigheid van een LLM. Zo bestaat DeepSeek-R1 uit 671 miljard parameters, maar gebruikt het daar slechts een fractie van voor elke individuele AI-prompt. Een kleiner model dat enkel op security is gericht, kun je dus in feite zien als een van deze fracties die ook in een grotere LLM geactiveerd had kunnen woorden voor securitytaken. Deze techniek heet Mixture-of-Experts en is door verschillende AI-bedrijven doorontwikkeld, waaronder OpenAI, DeepSeek, Meta en Mistral.", "datePublished": "2025-11-10T09:30:31.000Z", "dateModified": "2025-11-10T00:00:00.000Z", "mainEntityOfPage": { "@type": "WebPage", "@id": "/nieuws/nieuwsfeed/item/cisco-ontwikkelt-ai-met-30-jaar-securityervaring/r/recLAKWgryIz7Jra8" }, "isBasedOn": { "@type": "CreativeWork", "@id": "https://www.techzine.nl/nieuws/security/571796/cisco-bouwt-ai-model-met-drie-decennia-aan-securitykennis/" }, "publisher": { "@type": "Organization", "name": "IBgidsNL", "url": "https://ibgids.nl" }, "author": { "@type": "Organization", "name": "IBgidsNL", "url": "https://ibgids.nl" }, "image": "https://v5.airtableusercontent.com/v3/u/47/47/1762776000000/miXoKkLXV64JJASy8LTP0A/dnFPiGuQRyvSCiMUieoP3658EWvl8QeKGtSdxRLyLmNKVZ0La6odbBw8rMfkNMLeY4KwqLnu-PgEH7xgKDK00INVDP4-4o-758TfhCk_yb2lb4woxJbeYs4du0hHd6ZvWYCA8gLPgTvkSuSd1LObPg/wxR99FF4D5Fk9d8kvaZNat3sJT89pYyMJv6eHd03DAI" }

Gepubliceerd op:

10/11/2025 10:30

Cisco ontwikkelt AI met 30 jaar securityervaring

Securitybedrijven gebruiken kleine AI-modellen om bedrijven te beschermen. Cisco verdubbelt echter het aantal parameters van 8 miljard naar 17 miljard. Dit nieuwe model bevat 30 jaar aan threat intelligence van Cisco Talos. Het is geen opvolger van het eerdere Foundation-Sec-8B, aldus Cisco. Momenteel gebruikt Cisco Foundation-Sec-8B, een model met acht miljard parameters dat in verschillende producten is geïntegreerd. Dit model analyseert security alerts, controleert code op kwetsbaarheden en stelt workflows voor die de beveiliging prioriteren. Het nieuwe model, dat nog geen naam heeft, is ambitieuzer en moet zowel dreigingen detecteren als stappen adviseren om deze cybergevaren af te wenden. Tijdens Cisco Live Asia-Pacific in Melbourne kondigde Raj Chopra, senior vice president en chief product officer voor security, het nieuwe model met 17 miljard parameters aan. The Register berichtte hier als eerste over. Het model traint op threat intelligence, incident summaries en red team playbooks die Cisco heeft verzameld. Chopra benadrukt dat het Talos-team dertig jaar aan data bijdraagt aan de training, waardoor het model veelzijdig moet zijn in het detecteren en verdedigen tegen dreigingen.

Het nieuwe model is dus geen directe opvolger van Foundation-Sec-8B, vertelt Chopra aan The Register. "We willen een model bouwen dat zowel dreigingen detecteert als stappen adviseert om ze aan te pakken. Daarvoor hebben we een uitgebreid model nodig." Het model verschijnt "na Kerstmis, maar niet ver daarna." Cisco werkt volgens Chopra aan "een hele phalanx" nieuwe modellen en AI-initiatieven. Hij wijst op de late-oktober release van een update voor het SecureBERT-model, een tool voor securityprofessionals. Cisco hielp de ontwikkelaars de performance "manyfold" te verbeteren in de nieuwe versie. Meerdere speerworpen die op hetzelfde securityprobleem mikken, met andere woorden. We vernamen in april al dat Cisco grote plannen heeft met het bouwen van eigen AI-modellen. Het destijds opgerichte Foundation AI moet binnen Cisco meer dan alleen security verzorgen, maar die tak van sport krijgt momenteel duidelijk wel de focus. Yaron Singer is verantwoordelijk voor Foundation AI en leidde eerder het door Cisco overgenomen Robust Intelligence. De taak van Cisco's AI-tak is voornamelijk wetenschappelijk van aard, en in de geest van open onderzoek verschijnen de modellen dan ook als open-source LLM's. Cisco ontwikkelt LLM's omdat organisaties volgens het bedrijf een mengelmoes nodig hebben van generieke securitydata en informatie over hun eigen omgeving. De modellen zijn open-source, maar de AI-inspanningen zijn niet volledig altruïstisch, merkt The Register op. Cisco gebruikt de modellen in eigen producten en positioneert zijn Splunk-tools als de beste manier voor klanten om hun eigen data te analyseren. Dat is logisch, maar we verwachten niet dat de LLM's voor security zomaar achter een closed-source muur verdwijnen. Dit is omdat generatieve AI-modellen eigenlijk nog niet al te volwassen zijn voor securitydoeleinden. De oplossing hiervoor blijkt om kleine AI-modellen te bouwen op hoogwaardige data. Eigenlijk gaat het dus om Small Language Models (SLM's) die op relatief eenvoudige hardware kan draaien. Het alternatief zou zijn om de grootste AI-modellen van bijvoorbeeld OpenAI of Anthropic via een API te draaien, maar deze LLM's zijn niet getraind op hoogwaardige securitydata. Ze missen daardoor de accuratesse om nuttig te zijn en omdat ze closed-source zijn, zijn ze niet aanpasbaar of te controleren op de trainingsdata. Daarnaast vereisen ze een internetverbinding om te functioneren. Uit eigen gebruik merken we dat de stap tussen 8 miljard parameters en 17 (of omstreken) miljard groot is. De foutgevoeligheid van alle kleinere modellen is hoog als ze veel taken moeten uitvoeren, maar enkel de parameters moeten niet gelden als meetlat voor de vaardigheid van een LLM. Zo bestaat DeepSeek-R1 uit 671 miljard parameters, maar gebruikt het daar slechts een fractie van voor elke individuele AI-prompt. Een kleiner model dat enkel op security is gericht, kun je dus in feite zien als een van deze fracties die ook in een grotere LLM geactiveerd had kunnen woorden voor securitytaken. Deze techniek heet Mixture-of-Experts en is door verschillende AI-bedrijven doorontwikkeld, waaronder OpenAI, DeepSeek, Meta en Mistral.

Bron:

techzine.nl

Overige nieuwsartikelen

Het meest recente nieuws op IBgidsNL.

Cyberaanval verstoort nog steeds Asahi bierleveringen ernstig

11/11/2025 14:30

Malware geïnstalleerd via kwetsbaarheid in Gladinet Triofox antivirus

11/11/2025 14:00

Samsung Galaxy-lek toegevoegd aan CISA KEV-database

11/11/2025 13:00