Tip hier de redactie
Posts
Bekijk overzicht
13 July 2023
Artikel delen

De AI Act: wat kunnen scholen verwachten van deze nieuwe wet?

Categories

Tags

    Deel dit artikel

    Wilt u belangrijke informatie delen met de redactie?

    Tip hier de redactie

    Artificial intelligence ontwikkelt zich in razend tempo en heeft de potentie om grote veranderingen teweeg te brengen in onze maatschappij. Het gebruik van kunstmatige intelligentie biedt heel veel mogelijkheden maar roept ook vragen op, bijvoorbeeld met betrekking tot veiligheid, ethiek en privacy. Om de technologische ontwikkelingen in goede banen te leiden wordt in Brussel hard gewerkt aan de AI Act, een Europese verordening die het op de markt brengen en het gebruik van AI moet gaan reguleren. In dit artikel gaan we in op deze nieuwe wet. Wat houdt de AI Act in en wat zijn de mogelijke gevolgen voor de onderwijssector? Omdat de definitieve tekst van de AI Act nog niet vaststaat, kijken we naar de situatie zoals die nu bekend is.

    Door Loes van Zuijdam op Kennisnet 

    Risicogebaseerde benadering

    In april 2021 publiceerde de Europese Commissie het voorstel voor de AI Act. Deze nieuwe verordening heeft onder meer tot doel dat AI-systemen die in de EU in de handel worden gebracht en gebruikt, veilig zijn en in overeenstemming zijn met de grondrechten en waarden, zoals deze in de EU gelden.

    Wat in de AI Act precies onder een AI-systeem wordt verstaan, is nog niet in beton gegoten. Er is ten opzichte van het oorspronkelijke wetsvoorstel behoorlijk gesleuteld aan de definitie. Het is belangrijk dat deze niet te ruim, maar ook niet te beperkt is en bovendien technologieneutraal, zodat ook toekomstige vormen van AI eronder vallen. Volgens de meest recente tekstvoorstellen is sprake van een AI-systeem als het gaat om een machinaal systeem dat is ontworpen om met verschillende niveaus van autonomie te werken, en dat voor expliciete of impliciete doelstellingen output kan genereren, zoals voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de fysieke of virtuele omgeving. Allerlei toepassingen kunnen hieronder vallen, van chatbots tot zelfrijdende auto’s, van aanbevelingen in zoekmachines tot automatische gezichtsherkenningscamera’s.

    De AI Act kent een risicogebaseerde benadering: hoe hoger het risico van een AI-systeem, hoe meer verplichtingen er moeten worden nageleefd. Het risico wordt bepaald op basis van het beoogde doel van het gebruik van de technologie en de sector waarin deze wordt ingezet. Er worden vier risiconiveaus onderscheiden:

    1. Onaanvaardbaar risico
    2. Hoog risico
    3. Beperkt risico
    4. Minimaal risico

    AI-systemen die in categorie 1, onaanvaardbaar risico, vallen worden in het voorstel verboden omdat deze schadelijk zijn en strijdig met de waarden van de EU. Het gaat hierbij om toepassingen die de meeste mensen te ver vinden gaan. Denk aan het gebruik van een social scoring systeem zoals in China wordt ingezet of realtime biometrische systemen voor identificatie op afstand in de openbare ruimte. Het voorstel is om ook emotiedetectie in bepaalde situaties, zoals op de werkvloer en in het onderwijs, onder deze verboden categorie op te nemen.

    Het grootste deel van de bepalingen van de AI-Act richt zich op de tweede categorie: hoogrisico-systemen. Dit zijn AI-systemen die worden gebruikt in sectoren of contexten waar ze een risico kunnen vormen voor de gezondheid, veiligheid of grondrechten van personen. Voorbeelden zijn AI-systemen die worden gebruikt voor kritieke infrastructuur, werkgelegenheid, essentiële diensten (overheid en privaat), justitie, rechtshandhaving, migratie en onderwijs. Deze systemen moeten voldoen aan strenge eisen, waarop we verderop in dit artikel nader zullen ingaan.

    Voor AI-systemen die vallen onder de beperkte risicocategorie gelden vooral transparantievereisten, zodat de mensen weten dat ze met een AI-systeem te maken hebben. Denk hierbij aan het gebruik van chatbots door webshops of deep fakes.

    Voor de laatste risico-categorie, minimaal risico, gelden er vanuit de AI Act geen verplichtingen, hiervoor wordt alleen aanbevolen om gedragscodes op te stellen. Voorbeelden van AI-toepassingen onder deze categoriezijn spamfilters en AI in videogames.

    Lees verder op Kennisnet.nl

     

    Tags

    Deel dit artikel

    Wilt u belangrijke informatie delen met de redactie?

    Tip hier de redactie

    BLIJF OP DE HOOGTE VAN AL HET ONDERWIJSINNOVATIE NIEUWS