Meta gaat Europese gebruikersdata gebruiken voor AI-training
Redactie
Meta heeft aangekondigd dat zij openbare data van volwassen gebruikers in de EU wil inzetten om haar AI-systemen te verbeteren. Het gaat om publieke posts en reacties op platforms als Facebook en Instagram, en ook om vragen die gebruikers stellen aan Meta AI, de virtuele chatbot van het bedrijf. Volgens Meta is het doel om AI te maken die beter past bij Europese talen, culturen en gebruiken. Ondanks deze uitleg zijn er zorgen over privacy en eigendomsrechten.
Wat Meta van plan is
Volgens Meta is het noodzakelijk om Europese data te gebruiken voor het bouwen van AI-systemen die niet alleen bruikbaar zijn in Europa, maar die ook zijn gevormd door Europese input. Tot nu toe zijn veel AI-modellen vooral getraind op Engelstalige data uit de Verenigde Staten, waardoor ze minder goed inspelen op lokale taalnuances, culturele verschillen en typische vormen van communicatie binnen de verschillende EU-landen. Door gebruik te maken van materiaal dat volwassenen in de EU publiekelijk delen op platforms als Facebook en Instagram, wil het bedrijf haar systemen beter afstemmen op de Europese context.
Gebruikers ontvangen hierover meldingen in de relevante apps en per mail, met uitleg en een link naar een bezwaarformulier. Meta benadrukt dat privéberichten en gegevens van minderjarigen niet worden gebruikt. Alleen bewust openbaar gedeelde inhoud komt in aanmerking. Volgens Meta is dit soort datagebruik gangbaar in de sector, maar wil het bedrijf zich onderscheiden door transparanter te zijn dan andere techreuzen. Daarbij verwijst het naar een positief advies van de European Data Protection Board, die eind 2024 oordeelde dat Meta’s aanpak aan de Europese regels voldoet.
Zorgen over privacy en transparantie
Toch zijn er belangrijke vragen. Wat precies onder “publiek” valt, is niet altijd duidelijk. Veel mensen delen persoonlijke verhalen of creatieve inhoud omdat ze denken dat alleen hun volgers het zien. Dat die informatie ineens wordt gebruikt om commerciële AI te trainen, kan voor veel gebruikers een grens overschrijden. Meta werkt met een opt-out systeem, waarbij gebruikers actief bezwaar moeten maken om AI-training op basis van hun data te voorkomen. Maar veel mensen zullen de melding niet opmerken of niet goed begrijpen. Daardoor wordt hun data mogelijk gebruikt zonder dat ze echt toestemming hebben gegeven. De AP roept Nederlanders op om het bezwaarformulier goed te bestuderen. Zij benadrukt dat eventueel bezwaar nú moet worden aangetekend, omdat de data waarop AI eenmaal is getraind niet zomaar meer verwijderd kan worden.
Naast de zorgen over privacy is er ook bezorgdheid over de kwaliteit van de data die Meta wil gaan gebruiken. Sociale media staan erom bekend dat ze in de maatschappij levende vooroordelen kunnen versterken, zoals racisme en homofobie. AI die op zulke data wordt getraind, kan dergelijke patronen overnemen en versterken, wat vooral ten nadele komt van minderheidsgroepen. Vooralsnog is het onduidelijk hoe Meta de gebruikte data precies selecteert.
Tot slot zijn er vragen over auteursrechten. Openbare posts bevatten vaak originele teksten of foto’s van de gebruiker. Als AI daarmee wordt getraind, en later vergelijkbare content genereert, kan dat op gespannen voet staan met het auteursrecht op het trainingsmateriaal. Momenteel lopen er tal van Amerikaanse rechtszaken die moeten uitwijzen of AI-training met behulp van auteursrechtelijk beschermd materiaal is toegestaan en zo ja, onder welke voorwaarden. Naar geldend EU-recht is dergelijke training wel toegestaan, tenzij de rechthebbende uitdrukkelijk bezwaar maakt (art. 4 lid 3 DSM-richtlijn). Dat stemt in beginsel overeen met de aanpak van Meta, waarbij gebruikers van tevoren de gelegenheid krijgen om uitdrukkelijk bezwaar te maken. Van belang is hierbij wel dat Meta de gebruikers in kwestie voldoende moet hebben geïnformeerd.
Meta’s nieuwe AI
Wat voor modellen en systemen Meta precies met de gebruikersdata wil ontwikkelen is nog niet bekend. Wel kondigde Meta dezelfde week aan dat zij werkt aan 5 nieuwe AI-toepassingen. Deze komen uit de onderzoekstak van het bedrijf, FAIR. Ze laten zien hoe breed Meta inzet op AI. Zo is er de Perception Encoder, die beeld en video beter moet laten begrijpen door AI. Dan is er de Perception Language Model, een open model dat beeld en taal combineert en AI moet helpen bij het begrijpen van video’s en bijschriften.
Ook werkt Meta aan Meta Locate 3D, een systeem dat robots laat zien waar objecten staan in een ruimte, op basis van een tekstcommando. Daarnaast is er een nieuw taalmodel dat werkt op byte-niveau in plaats van woorden, wat efficiënter en stabieler zou zijn. En tot slot is er de Collaborative Reasoner, die AI leert samenwerken met mensen of andere AI’s. Hierbij gaat het niet alleen om kennis, maar ook om sociale vaardigheden zoals luisteren, overleggen en het geven van feedback.
Afsluitend
De plannen van Meta maken duidelijk hoe waardevol gebruikersdata is geworden in de ontwikkeling van AI. Tegelijk wordt ook steeds zichtbaarder waar de risico’s liggen. Om gebruikers te beschermen én ruimte te laten voor technologische vooruitgang is duidelijke wetgeving onmisbaar. De Europese Unie heeft hierin al belangrijke stappen gezet, in tegenstelling tot bijvoorbeeld de Verenigde Staten waar veel onduidelijkheid heerst. Maar de snelle ontwikkeling van AI vraagt om verdere verduidelijking. Denk bijvoorbeeld aan de mate van transparantie die Meta moet verlenen aan haar gebruikers over het gebruik van hun data voor de ontwikkeling van AI. Volstaat Meta’s huidige aanpak of kan het beter? Alleen met duidelijke regels kunnen we zorgen dat nieuwe technologie ook echt in dienst staat van de samenleving.