AI gebruiken zonder risico: Zo bouwen wij aan security-first AI-oplossingen • Enlite

Dat het gebruik van AI-agents kan leiden tot datalekken is de afgelopen jaren pijnlijk duidelijk geworden. Gelukkig is er binnen veel bedrijven nu beleid voor het gebruik van AI-chatbots, wat ervoor moet zorgen dat het aantal incidenten beperkt blijft. Dit beleid resulteert erin dat het gebruik van chatbots beperkt wordt. Notulen van een vergadering samenvatten gaat bijvoorbeeld niet meer, omdat daar gevoelige informatie in zou kunnen staan.  Klanten benaderen ons daarom steeds vaker met de vraag of er een veilige AI-chatbot kan worden ontwikkeld. In dit artikel beschrijven we, hoe wij in samenwerking met onze partner Warpnet, bouwen aan security first AI-oplossingen. 

Hoe ontstaan datalekken door AI? 

Wanneer werknemers van een bedrijf per ongeluk persoonsgegevens delen met een AI-chatbot als ChatGPT, belanden deze gegevens in de databases van AI-bedrijven. Niels Gnodde, CTO bij Enlite legt uit hoe dit kan leiden tot serieuze datalekken: “AI-oplossingen als ChatGPT worden gehost in de Verenigde Staten. Daar gelden heel andere regels voor informatiebeveiliging dan in Europa. In de Verenigde Staten bestaat geen AVG of een vergelijkbare wet, waardoor een bedrijf waarvan gegevens met ChatGPT zijn gedeeld, geen controle meer heeft over wat er met die gegevens gebeurt. 

Situaties als deze kunnen leiden tot een datalek, onverwachte openbaarmaking aan andere gebruikers of toegang door Amerikaanse autoriteiten via de Cloud Act. Het ontbreken van een geldige verwerkingsovereenkomst en de schending van de AVG-doorgifteregels maken het een serieus probleem. ” 

De voordelen van AI-chatbots 

Het gebruik van AI-chatbots kan veel tijd schelen in verschillende situaties. Eerder in het artikel noemden we al het samenvatten van de notulen van een vergadering. Daarnaast kan een AI-chatbot gebruikt worden als schrijf assistent. Het kan echter ook verder gaan dan dat. Wanneer een AI-model op de hoogte is van alle processen binnen een bedrijf, kan het medewerkers helpen om bepaalde stappen sneller te doorlopen. Denk bijvoorbeeld aan een supportbedrijf. Wanneer er een ticket binnenkomt kan een supportmedewerker met behulp van het juiste AI-model de eerste stappen doorlopen. Zo kan AI ervoor zorgen dat er minder tijd verloren gaat aan het uitzoeken van de oorzaak van het probleem, waardoor de medewerker het probleem in kortere tijd kan oplossen. Bij dit soort oplossingen is het extra belangrijk dat privacy gewaarborgd kan worden. 

Onze oplossingen 

Vanuit klanten horen wij nu ook steeds meer de vraag om security first AI-oplossingen te bouwen. Niels: “Veel bedrijven vragen naar een AI-assistent voor verschillende doeleinden. Wij hebben vanuit deze vraag een AI-model gebouwd. Daarbij maken we een combinatie tussen taalmodellen en kennisbanken waaruit het AI-model alle informatie kan halen die het nodig heeft als assistent. De privacy waarborgen wij door data uit de kennisbank af te schermen voor ongeautoriseerde gebruikers. Daarnaast is het voor de privacy essentieel dat de applicatie lokaal gehost wordt.” 

Enlite bouwt de software en Warpnet pakt de hosting op. Roald Nefs, CTO bij Warpnet licht toe: “Security is voor ons geen bijzaak, het zit in de kern van hoe wij ontwikkelen. In onze samenwerking met Enlite brengen wij diepgaande platform engineering expertise mee en passen we security by design toe: van veilige infrastructuur tot lokale AI-hosting die volledig aansluit op de compliance eisen van de klant. Enlite bouwt daar vervolgens een applicatie omheen, op een fundament dat vanaf dag één goed is ingericht.” 

Ontwikkelen vanuit expertise 

Enlite en Warpnet ontwikkelden al eerder een aantal applicaties waarbij security een sleutelrol speelt, Secure Dropzone en Logspect zijn hier voorbeelden van. Secure Dropzone is een oplossing waarmee organisaties documenten kunnen delen zonder risico’s. Het is ontworpen met meerdere beveiligingslagen en bestanden worden opgeslagen op Europese servers, wat naleving van de AVG waarborgt. Logspect is in samenwerking met het Martini Ziekenhuis ontwikkeld en zorgt ervoor dat onbevoegde inzagen van patiëntendossiers kunnen worden gecontroleerd. Hiermee kan de privacy van (medische) gegevens worden gewaarborgd.  

Vanuit deze expertise blijven Warpnet en Enlite applicaties als het AI-model door ontwikkelen. Niels: “Het doel is om meer AI-oplossingen op de markt te brengen die volledig aanpasbaar zijn aan de behoeftes van onze klanten. Security is daarbij altijd het uitgangspunt.” 

Ook gebruik maken van security first AI-oplossingen van Enlite? Neem contact op!  

Of wil je meebouwen aan onze nieuwste AI-oplossingen? Bekijk snel deze vacature!