Sense & Sensibility of AI

Seminariereeks, 2021
Vlaamse AI Academie

AI-systemen dragen een risico op filterbubbels en polarisering met zich mee. Terwijl AI in de samenleving wordt uitgerold, schuift ook de discussie over onze waarden naar de voorgrond: hoe sluiten AI-gebaseerde systemen erop aan en welke invloed oefenen ze erop uit? We gaven de computer senses, zintuigen, maar hoe geven we het ook sensibility, gevoel?

AI heeft een steeds grotere invloed op ons dagelijks leven, voorbeelden hiervan zijn de automatisering van sommige belangrijke beslissingen, zoals hypotheken en leningen, de automatische beoordelingen van borgtochtrisico of de vele aanbevelingen op het internet. Maar kunnen AI-systemen ook rekening houden met menselijke waarden? Dit debat vraagt ​​om een ​​multidisciplinaire blik, waarbij zowel technische als niet-technische invalshoeken een prominente plaats innemen.

In de seminariereeks ‘Sense & Sensibility of AI’ richten we ons op Ph.D.-studenten om over de verschillende aspecten van Ethiek in AI te leren – niet alleen om zich ervan bewust te zijn, maar ook om over de impact van AI op de maatschappij te leren en om zich methodologieën eigen te maken om ethische problemen te identficeren, inschatten en mogelijk ook op te lossen. Deze maandelijkse seminaries pakken onderwerpen aan zoals vooroordelen en eerlijkheid, privacy, betrouwbaarheid en het balanceren van technische, sociale en wetgevende perspectieven.

Deze serie mikt op doctoraatsstudenten actief in het brede veld van AI en datawetenschap. Om de lezingen volledig te kunnen begrijpen, kan een achtergrond in de technische aspecten van AI/Machine Learning nodig zijn.

Sense & Sensibility of AI is een seminariereeks ontwikkeld door de Vlaamse AI Academie, in samenwerking en met de steun van al onze partners, alle universiteiten en hogescholen in Vlaanderen en Kenniscentrum Data & Maatschappij.

een samenwerking tussen alle universiteiten en hogescholen in Vlaanderen

Praktisch

  • maandelijks, in 2021
    vanaf 28 mei
  • Locatie: online
  • Contact: Laura Alonso
    laura.alonso@vlaamse-ai-academie.be
  • Taal: Engels
  • Prijs: gratis voor onderzoekers

Sense & Sensibility Seminaries

Mensen handelen vaak inconsistent en houden niet altijd rekening met alle relevante informatie die nodig is om tot een weloverwogen moreel oordeel te komen. Om deze tekorten op te vangen, stellen ondezroekers voor dat we ons bij morele oordelen kunnen laten bijstaan door AI. In tegenstelling tot mensen kan AI in een zeer korte tijdspanne enorme hoeveelheid data verzamelen, analyseren en verwerken. In hoeverre is het realistisch dat AI ons in de toekomst zal bijstaan? Katleen Gabriels bespreekt verschillende types Artificial Moral Agents (AMA’s). Welke technische, conceptuele en ethische uitdagingen stelt het gebruik van AI bij morele oordeelsvorming?

Traditioneel beoordelen we ‘ranking in information retrieval’ vanuit de relevantie van de zoekmachineresultaten voor de mensen die naar informatie zoeken. We bekijken dus of het systeem de juiste informatie, aan de juiste mensen, op de juiste manier en op het juiste moment aanbiedt. Maar in de huidige information-retrievalsystemen geven mensen niet alleen de zoekopdrachten, maar worden ze in toenemende mate ook zelf het onderwerp dat onderzocht wordt. Prof. Castillo legt uit hoe dit verschillende nieuwe problemen in information retrieval creëert, problemen die recent onderzocht werden met aandacht voor eerlijkheid/non-discriminatie, aansprakelijkheid en transparantie.

we vullen deze informatie na de zomer aan

Wanneer zijn gegevens ‘persoonlijk’? Wanneer voer je een DPIA uit? Waarom hebben sommige organisaties een Data Protection Officer en wanneer moet je er contact mee opnemen? Ellen Wauters (CiTiP, imec) en Brahim Bénichou (Kenniscentrum Data & Maatschappij & KU Leuven) leggen de basisprincipes van GDPR uit en ontsluiten ze met enkele handige tips en trucs. Ze gaan ook dieper in op de ethische richtlijnen en de zeven belangrijkste vereisten voor ontwikkeling, implementatie en het gebruik van AI-systemen om als betrouwbare AI te worden beschouwd – privacy en gegevensbeheer zijn er onderdelen van. Om dit seminarie voor te bereiden, raden we aan om de privacyrichtlijnen/policy’s die uw organisatie hanteert, te raadplegen.

We leven in een tijd waarin informatie over de meeste van onze bewegingen en acties in realtime verzameld en opgeslagen wordt. De beschikbaarheid van grootschalige gedragsgegevens vergroten ons vermogen om het gedrag van individuen te begrijpen en mogelijk ook om het gedrag van personen en groepen te beïnvloeden.

Maar het gebruik van deze gegevens geeft aanleiding tot een legitieme bezorgdheid over de privacy. Anonimisering is bedoeld om deze zorgen weg te nemen: hierbij worden data volledig gebruikt, met bewaking van de individuele privacy. In deze lezing bespreekt Prof. de Montjoye eerst hoe traditionele gegevensbeschermingsmechanismen de privacy van mensen niet beschermen in dit tijdperk van big data. Hij zal demonstreren hoe de loutere afwezigheid van de voor de hand liggende identificatiegegevens, zoals naam of telefoonnummer, of ook de toevoeging van ruis, niet volstaan om heridentificatie te voorkomen. Vervolgens beschrijft Prof. de Montjoye de, in zijn ogen, noodzakelijke evolutie van het begrip van anonimisering van gegevens naar een anoniem gegevensgebruik. Hij sluit af met een bespreking van enkele van de moderne technieken in de privacy-engineering: die worden momenteel ontwikkeld om het gebruik van grootschalige gedragsgegevens mogelijk te maken, met behoud van sterke individuele privacygaranties.

Kunstmatige intelligentie staat meer en meer in voor beslissingen die een enorme impact hebben op ons leven. Maar voorspellingen, gemaakt met behulp van datamining en algoritmes, kunnen subgroepen in een populatie op een verschillende manier beïnvloeden. Academische onderzoekers en journalisten hebben aangetoond dat beslissingen genomen door voorspellende algoritmes, soms tot vertekende uitkomsten leiden doordat ze ongelijkheden reproduceren die al in de samenleving aanwezig zijn.

Is het mogelijk om een ​dataminingproces te creëren dat zich wel bewust is van eerlijkheid? Zijn algoritmen bevooroordeeld omdat mensen dat ook zijn? Of ligt het aan de manier waarop machine learning werkt op het meest fundamentele niveau?