OpenAI heeft een vacature opengesteld voor een nieuwe ‘hoofd paraatheid’. Deze leidinggevende wordt verantwoordelijk voor het evalueren en beperken van risico’s die ontstaan bij steeds geavanceerdere AI-systemen. De functie past binnen OpenAI’s Preparedness-framework dat sinds eind 2023 operationeel is.
De gezochte Head of Preparedness gaat een team leiden dat zich bezighoudt met het evalueren van AI-capaciteiten, het modelleren van potentiële risico’s en het ontwikkelen van maatregelen om deze risico’s te beperken. Het doel is om een samenhangend veiligheidssysteem te bouwen dat schaalt met de capaciteiten van frontier AI-modellen. OpenAI zoekt iemand met diepgaande technische expertise in machine learning, AI-veiligheid of aanverwante risicodomeinen en betaalt .
De functie vereist het maken van technische beslissingen onder onzekerheid. Evaluatieresultaten moeten direct doorwerken in beslissingen en beleidskeuzes. Ook moet de geselecteerde kandidaat het Preparedness-framework kunnen aanpassen als nieuwe risico’s of capaciteiten ontstaan.
Preparedness-framework met vier risiconiveaus
OpenAI introduceerde dat framework in december 2023 om catastrofale risico’s van geavanceerde AI te beoordelen. Het framework definieert risico’s in vier categorieën: cybersecurity, chemische/biologische wapens, overtuigingskracht en autonome operaties. Elk kent escalerende niveaus van Tier 1 (verwaarloosbaar) tot Tier 4 (extreem).
Het Safety Systems-team bij OpenAI zorgt ervoor dat de meest capabele modellen verantwoord worden ontwikkeld en uitgerold. Het team zorgt voor evaluaties, beveiligingsmaatregelen en safety frameworks. De Head of Preparedness moet samenwerken met verschillende teams binnen het bedrijf, maar ook met policy- en governancefuncties, oftewel de systemen, processen en structuren die een organisatie besturen, beheersen en controleren.
Nederlander weigert overnamebod OpenAI van 500 miljoen dollar
OpenAI stelde in mei 2024 ook een Safety and Security Committee in op bestuursniveau. Deze commissie doet aanbevelingen over kritieke veiligheids- en beveiligingsbeslissingen voor alle projecten.
Tot slot wordt het gewaardeerd als kandidaten achtergrond hebben in threat modeling, cybersecurity, biosecurity of andere risicodomeinen. OpenAI benadrukt dat de rol wetenschappelijke diepgang moet combineren met operationele realiteit in een snel bewegende context.