{ "@context": "https://schema.org", "@type": "NewsArticle", "headline": "JFrog introduceert Shadow AI Detection op platform", "description": "JFrog introduceert Shadow AI Detection om ongecontroleerd AI-gebruik in softwareontwikkeling te detecteren en te beheren, met focus op beveiliging en naleving.", "articleBody": "JFrog heeft een nieuwe functie genaamd Shadow AI Detection gelanceerd. Deze tool helpt bedrijven om ongecontroleerd gebruik van AI in softwareontwikkeling te identificeren en te beheren. Het doel is om innovatie te balanceren met beveiliging en naleving van regels. De snelle integratie van AI in ontwikkelteams zorgt voor uitdagingen op het gebied van governance. Ontwikkelaars en datawetenschappers gebruiken vaak AI-modellen en -diensten van bedrijven zoals OpenAI, Anthropic en Google zonder centrale goedkeuring. Dit fenomeen, bekend als Shadow AI, creëert blinde vlekken in de beveiligingsinfrastructuur. JFrog's tool detecteert automatisch deze onzichtbare AI-assets. Het inventariseert interne modellen en externe API-gateways die toegang bieden tot data van goedgekeurde of ad-hoc bronnen. Yuval Fernbach, VP en CTO ML bij JFrog, benadrukt dat het herkennen en beperken van de risico's van Shadow AI een prioriteit wordt voor CIO's en CISO's die innovatie willen combineren met beveiliging. De functie wordt gepresenteerd tijdens JFrog swampUP Europe en maakt deel uit van het JFrog Software Supply Chain Platform. Zodra AI-assets zijn gedetecteerd, kunnen organisaties deze centraal beheren. Teams kunnen beveiligings- en nalevingsbeleid afdwingen voor alle AI-resources. Ze kunnen ook paden instellen voor geautoriseerde gebruikers om externe AI-diensten te benaderen. Het systeem monitort het gebruik van externe AI-modellen en API's zoals OpenAI of Gemini, wat belangrijk is vanwege nieuwe regelgeving. Fernbach wijst erop dat organisaties bewezen softwareontwikkelingspraktijken moeten volgen met workflows die ontwikkelaarsvriendelijk zijn, sterke beveiliging en robuuste governance. Verschillende wet- en regelgevingskaders vereisen volledige audittrails van AI-activiteiten. De Amerikaanse Transparency in Frontier AI Act, de EU Cyber Resilience Act, de EU AI Act, de BSI-richtlijnen van Duitsland, NIS2 en de richtlijnen voor het beveiligen van AI-systemen stellen allemaal eisen aan AI-verantwoording. Shadow AI Detection is beschikbaar als onderdeel van de JFrog AI Catalog. De algemene beschikbaarheid wordt later dit jaar verwacht. Het bedrijf ziet de functie als een uitbreiding van zijn 360-gradenbenadering voor het beveiligen van de AI-supply chain. De nieuwe detectiemogelijkheden helpen organisaties om herkomst, verantwoordelijkheid en veerkracht te waarborgen. Ze ondersteunen verantwoorde AI-ontwikkeling door strikte risicobeheersing en rapportagestandaarden af te dwingen. Ook zorgen ze voor zichtbaarheid in softwarecomponenten en beveiligen ze AI-systemen van ontwerp tot implementatie.", "datePublished": "2025-11-13T08:30:29.000Z", "dateModified": "2025-11-13T00:00:00.000Z", "mainEntityOfPage": { "@type": "WebPage", "@id": "/nieuws/nieuwsfeed/item/jfrog-introduceert-shadow-ai-detection-op-platform/r/recmyTm69VNdlPOrj" }, "isBasedOn": { "@type": "CreativeWork", "@id": "https://www.techzine.nl/nieuws/devops/571966/jfrog-brengt-shadow-ai-detection-naar-platform/" }, "publisher": { "@type": "Organization", "name": "IBgidsNL", "url": "https://ibgids.nl" }, "author": { "@type": "Organization", "name": "IBgidsNL", "url": "https://ibgids.nl" }, "image": "https://v5.airtableusercontent.com/v3/u/47/47/1763035200000/eqjCc7KCIoBAt7ffFcN3CQ/nfvs6q1urMJ1WpM3AqQf5QRNEBjMs7AoQTytOMSDmMO8gZXuk5NOFy8LRspAR-tfMP16vsOYcm8qK43_jO-6REzEKdjT8mb9gUXUbHU6MRkx2jyt1mgub_qbbHwEUZzT0ylYi0ogb_nWri-pJDAZ-g/67V1dngt5WOS7n6nUciIG0mFsjPkWy8-kiwSjFSEml0" }

Gepubliceerd op:

13/11/2025 09:30

JFrog introduceert Shadow AI Detection op platform

JFrog heeft een nieuwe functie genaamd Shadow AI Detection gelanceerd. Deze tool helpt bedrijven om ongecontroleerd gebruik van AI in softwareontwikkeling te identificeren en te beheren. Het doel is om innovatie te balanceren met beveiliging en naleving van regels. De snelle integratie van AI in ontwikkelteams zorgt voor uitdagingen op het gebied van governance. Ontwikkelaars en datawetenschappers gebruiken vaak AI-modellen en -diensten van bedrijven zoals OpenAI, Anthropic en Google zonder centrale goedkeuring. Dit fenomeen, bekend als Shadow AI, creëert blinde vlekken in de beveiligingsinfrastructuur. JFrog's tool detecteert automatisch deze onzichtbare AI-assets. Het inventariseert interne modellen en externe API-gateways die toegang bieden tot data van goedgekeurde of ad-hoc bronnen. Yuval Fernbach, VP en CTO ML bij JFrog, benadrukt dat het herkennen en beperken van de risico's van Shadow AI een prioriteit wordt voor CIO's en CISO's die innovatie willen combineren met beveiliging. De functie wordt gepresenteerd tijdens JFrog swampUP Europe en maakt deel uit van het JFrog Software Supply Chain Platform.

Zodra AI-assets zijn gedetecteerd, kunnen organisaties deze centraal beheren. Teams kunnen beveiligings- en nalevingsbeleid afdwingen voor alle AI-resources. Ze kunnen ook paden instellen voor geautoriseerde gebruikers om externe AI-diensten te benaderen. Het systeem monitort het gebruik van externe AI-modellen en API's zoals OpenAI of Gemini, wat belangrijk is vanwege nieuwe regelgeving. Fernbach wijst erop dat organisaties bewezen softwareontwikkelingspraktijken moeten volgen met workflows die ontwikkelaarsvriendelijk zijn, sterke beveiliging en robuuste governance. Verschillende wet- en regelgevingskaders vereisen volledige audittrails van AI-activiteiten. De Amerikaanse Transparency in Frontier AI Act, de EU Cyber Resilience Act, de EU AI Act, de BSI-richtlijnen van Duitsland, NIS2 en de richtlijnen voor het beveiligen van AI-systemen stellen allemaal eisen aan AI-verantwoording. Shadow AI Detection is beschikbaar als onderdeel van de JFrog AI Catalog. De algemene beschikbaarheid wordt later dit jaar verwacht. Het bedrijf ziet de functie als een uitbreiding van zijn 360-gradenbenadering voor het beveiligen van de AI-supply chain. De nieuwe detectiemogelijkheden helpen organisaties om herkomst, verantwoordelijkheid en veerkracht te waarborgen. Ze ondersteunen verantwoorde AI-ontwikkeling door strikte risicobeheersing en rapportagestandaarden af te dwingen. Ook zorgen ze voor zichtbaarheid in softwarecomponenten en beveiligen ze AI-systemen van ontwerp tot implementatie.

Bron:

techzine.nl

Overige nieuwsartikelen

Het meest recente nieuws op IBgidsNL.

Kritieke kwetsbaarheid ontdekt in React en Next.js (05-12-2025)

05/12/2025 14:00

React2Shell direct na ontdekking al misbruikt

05/12/2025 13:00

React-lek direct misbruikt voor aanvallen na bekendmaking

05/12/2025 10:30