Microsoft publiceerde een Transparantienota voor Copilot voor Microsoft 365, waarin het bedrijven maant ervoor te zorgen dat de toegangsrechten van gebruikers correct zijn ingesteld. En wel voordat men de technologie uitrolt.
De nota is er helder over. “Copilot voor Microsoft 365 heeft alleen toegang tot gegevens waartoe een individuele gebruiker al toegang heeft, op basis van bijvoorbeeld bestaande op rollen gebaseerde toegangscontroles in Microsoft 365.”
Copilot voor Microsoft 365 is een add-on waarvoor Microsoft $30 per gebruiker per maand rekent. Het maakt gebruik van grote taalmodellen (LLM’s) en integreert gegevens met Microsoft Graph en Microsoft 365-apps en -diensten om inhoud samen te vatten, te voorspellen en te genereren.
Nabewerking onder de loep
Op het eerste gezicht lijkt de dienst onschuldig, schrijft The Register. Een gebruiker geeft invoer in een applicatie, zoals Word. Die gebruikersaanvraag wordt vervolgens geanalyseerd om de kans op nuttige resultaten te vergroten en dan naar het LLM gestuurd voor verwerking. Wat uit het LLM komt krijgt een nabewerking voordat het teruggaat naar de gebruiker.
“Deze nabewerking omvat onderliggende oproepen naar Microsoft Graph en controles op verantwoorde AI. Denk daarbij aan inhoudsclassificaties, beveiligings-, nalevings- en privacycontroles, en het genereren van commando’s.” Dat meldt Microsoft in de nota.
Juridische kwesties
Naast het correct instellen van de gebruikersrechten, waarschuwt de Transparantienota organisaties om juridische en nalevingskwesties te overwegen bij het gebruik van de dienst. “met name in gereguleerde sectoren.”
Microsoft onderzoekt zelf de regelgeving die van toepassing is op Microsoft als aanbieder van de technologie, “en pakt deze aan binnen het product door middel van een continu verbeteringsproces,” aldus het document.
Dan is er de aanbeveling om Copilot voor Microsoft 365 webinhoud van Bing te laten raadplegen om “de kwaliteit, nauwkeurigheid en relevantie” van de antwoorden te verbeteren. Het toestaan dat Microsoft Graph wordt uitgebreid met bronnen zoals CRM-systemen, externe bestandsopslagplaatsen en andere organisatiegegevens, is een andere aanbeveling die bedrijven goed moeten overwegen in het kader van governance.
Risico’s afwegen
Tot slot moeten gebruikers de veelgeprezen productiviteitswinst van de AI-dienst afwegen tegen de risico’s. Microsoft merkt op dat “gebruikers altijd voorzichtig moeten zijn en hun gezond verstand moeten gebruiken bij het gebruiken van de output van Copilot voor Microsoft 365”.