2min Security

Opnieuw 2 medeoprichters weg bij xAI: veiligheid geschrapt wegens ‘censuur’

Opnieuw 2 medeoprichters weg bij xAI: veiligheid geschrapt wegens ‘censuur’

Voormalige werknemers van xAI waarschuwen voor het gebrek aan veilige kaders in de ontwikkeling van de AI-tool. Zij beschuldigen Elon Musk ervan snelheid prioriteit te geven boven veiligheid.

Twee oprichters xAI verlaten het bedrijf na een herstructurering die volgens insiders voortkwam uit spanningen over veiligheid. The Verge sprak met een voormalig werknemer die recent vertrok bij het bedrijf. “Veiligheid is onbestaande bij xAI”, aldus een vertrokken medewerker.

De herstructureringsplannen ondersteunen deze uitspraak. In deze plannen worden er vier werkgroepen opgesteld, maar geen van allen focust op de veiligheid van het model. De nieuwe fase bestaat uit: Grok Main en Voice, waarin Grok AI zit zoals dit nu gekend is, Coding, Imagine (beeld en video), en Macrohard, dat volgens Musk zal dienen voor het opmaken van een volledige digitale kopie van bedrijven.

Deepfakes waren eerste resultaat

De veiligheidsproblemen bij Grok zijn geen verrassing. Grok 3 scoorde het slechtst in tests waarin de correctheid van AI-zoekmachines werd getest op het verspreiden van informatie via nieuwsbronnen. Grok 3 behaalde een foutmarge van 94 procent.

Eerder dit jaar kwam de AI-chatbot dan weer onder vuur te liggen doordat het mogelijk bleek te zijn om ongestoord valse naaktbeelden te genereren. Volgens de bron is dat het resultaat nadat het safety-team bij xAI werd opgeheven, waarna er bijna geen mogelijkheid meer bleeft tot controle die verder gaat dan de basis.

Achterstand op concurrenten

Naast de veiligheidsproblemen zorgt ook de achterstand van het model op concurrerende AI-partijen voor teleurstellingen bij het personeel. Een tweede bron stelt: “Proberen te doen wat OpenAI een jaar geleden deed, is niet hoe je OpenAI verslaat”, stelde hij. “Alles is inhaalwerk. Er zijn bijna nul risicovolle weddenschappen. Als iets nog niet eerder is gedaan, gaan we het niet doen.”

Hij noemde ook het gebrek aan focus op veiligheid een probleem :”Er is helemaal geen veiligheid in het bedrijf – niet in het model, niet in de chatbot”, aldus de tweede bron. “Hij [Musk] probeert actief het model meer te ontwrichten, omdat veiligheid in zijn ogen censuur betekent.”

Directe productieomgeving zonder controle

De tweede bron vertelde dat ingenieurs bij xAI onmiddellijk naar productie pushen. Lange tijd was er geen menselijke beoordeling betrokken. Grok biedt ongecensureerde spraakmodi aan, inclusief grove taal en expliciete scenario’s, wat contrasteert met restricties bij ChatGPT.