Hoe helpt AI het publiek beter te betrekken bij de wetenschap?

Hoe helpt AI het publiek beter te betrekken bij de wetenschap?

Hoe kan kunstmatige intelligentie helpen bij het betrekken van een breder publiek bij de wetenschap? Tijdens een workshop van de Nederlandse Unesco Commissie bespraken aanwezigen uitdagingen en actiepunten. (For English, see below.)

Na een korte introductie van Jon Verriet, de wetenschapsadviseur van de Commissie, begon de dag met Margaret Gold van de Universiteit Leiden. Zij presenteerde verschillende manieren waarop burgerwetenschapsprojecten nu al gebruik maken van bijvoorbeeld machine learning en deep learning, waarna haar collega David Raillant vertelde hoe CitiObs experimenteert met een chatbot. 

Burgerwetenschappers

Een heel concrete casus kwam vervolgens van onderzoeker Wouter Verschoof-van der Vaart (Universiteit Leiden), die uiteen zette hoe hij als archeoloog gebruik maakte van burgerwetenschappers én van machine learning voor het ontdekken van archeologische sites op laserfoto’s. Juist het combineren en contrasteren van de twee methoden bleek interessant. En Nina Schwarzbach (Rijksuniversiteit Groningen) vertelde over JUST-OS, een chatbot die Open Science raamwerken en regels een stuk toegankelijk moet gaan maken voor geïnteresseerden. 

Vijf actiepunten

In break-out sessies, en later met een paneldiscussie, ging de groep aanwezigen daarna aan de slag. Samen met panellisten Elena Ranguelova (eScience Center), Irene Nooren (SURF) en Jeroen Sondervan (Open Science NL) schreven zij op wat moet gebeuren om citizen science met behulp van AI makkelijker te maken. Ze formuleerden onder leiding van moderator en Unesco Commissielid Jeroen Geurts (VU) vijf actiepunten, van heel concreet tot meer structureel:

  1. Fondsen voor pilots. Onderzoeksaanvragen zijn lange-termijnwerk. Maar de mogelijkheden van AI-tools veranderen snel. Daarom is er juist op dit onderwerp behoefte aan meer fondsen voor pilots. Zo kunnen zaken sneller en kleinschaliger worden uitgeprobeerd, en eventueel later worden opgeschaald.
     
  2. AI stewards. Universiteiten en hogescholen hebben data stewards die ondersteuning bieden. Maar wat als je een chatbot wil bouwen. Is er dan een AI steward beschikbaar? Instellingen moeten talentvolle developers een vaste plek bieden als ondersteuners en uitvoerders van onderzoek.
     
  3. Training in ethiek. Bij het ontwerpen van een AI-onderzoeksproject komen specifieke ethische vragen kijken. Zeker wanneer een breder publiek bij het project wordt betrokken door co-creatie met burgerwetenschappers – bijvoorbeeld over privacy en uitlegbaarheid van de gebruikte tools. Het personeel in het hoger onderwijs – dus niet alleen onderzoekers – moet daarom beter worden getraind in de ethiek van AI.
     
  4. Autonomie. Veel onderzoekers willen graag zelf bepalen wanneer en hoe zij gebruik maken van commerciële diensten. Voor hun is het belangrijk dat er geen nieuwe disproportionele afhankelijkheden ontstaan bij het creëren van AI-infrastructuren. De kennisgemeenschap wil kunnen kiezen hoe en wanneer data wordt gebruikt. Daarvoor is een anticiperende ethiek nodig, die snel reageert op veranderende omstandigheden.
     
  5. Praktijken delen. Te vaak werken instituten aan eigen initiatieven. Soms weten teams zelfs niet van andere relevante projecten binnen hun eigen instelling. We hebben netwerken nodig waarin meer kennis en goede praktijken worden gedeeld over burgerwetenschap en het inzetten van AI.

How can AI help scientists engage with a wider audience?

During a workshop hosted by the Netherlands Commission for Unesco, participants explored how artificial intelligence (AI) could help engage a broad public in the scientific research process. 

After an introduction from Jon Verriet, the Commission's science advisor, the day kicked off with a presentation by Margaret Gold from Leiden University. She shared examples of how citizen science projects are already making use of AI technologies like machine learning and deep learning. Her colleague, David Raillant, followed up by explaining how the CitiObs project is experimenting with a chatbot to engage the public.

Citizen Scientists

A more concrete example came from Wouter Verschoof-van der Vaart, an archaeologist at Leiden University, who shared how he made use of both citizen scientists and machine learning to discover archaeological sites from laser images. He found that combining human input with AI made for an especially powerful method. Nina Schwarzbach from the University of Groningen then presented JUST-OS, a chatbot designed to make Open Science frameworks and policies more accessible to anyone interested in them. 

Five action points

The workshop continued with breakout sessions and a panel discussion featuring Elena Ranguelova (eScience Center), Irene Nooren (SURF), and Jeroen Sondervan (Open Science NL). Together with the workshop attendees, they discussed how AI could make it easier to involve citizens in science. Led by moderator Jeroen Geurts (VU), they came up with five key action points, ranging from very concrete steps to more structural changes:

  1. Funding for pilot projects. Applications for research grants can span months if not years, but AI tools evolve rapidly. There is a need for more funding specifically for pilot projects in this area, allowing researchers to experiment quickly on a smaller scale and then expand successful initiatives later on.
     
  2. AI stewards
    Just like universities have data stewards to help manage research data, we need AI stewards—specialized developers who can support researchers in building AI tools, like chatbots. Institutions should provide a dedicated place for these skilled professionals within their teams.
     
  3. Ethics training. AI research brings unique ethical challenges, especially when the public is involved through citizen science. Issues such as privacy and transparency must be considered carefully. This means that not only researchers, but all higher education staff, need better training on the ethical implications of AI.
     
  4. Autonomy. Many researchers want to maintain control over when and how they use commercial services. It's important to them that new AI infrastructures don't create disproportionate dependencies. The research community wants the freedom to choose how and when their data is used. This requires an anticipatory ethics, which can adapt quickly to changing circumstances.
     
  5. Sharing best practices. Too often, different institutions work on their own AI projects without knowing what others are doing. Sometimes this happens even within institutions. We need networks to share knowledge and best practices, making it easier for teams to learn from one another.
Loading...