SoundLib is een project van een jaar dat door de Vlaamse overheid is toegekend aan het Vlaams Instituut voor de Zee (VLIZ) met als doel een onderwatergeluidsbibliotheek van de Noordzee te creëren voor toepassingen in machinaal leren (ML). SoundLib zal een strategie ontwikkelen voor het verzamelen van geluidsgebeurtenissen, een kosteneffectieve, flexibele en schaalbare prototype- en databasearchitectuur ontwerpen en machine learning-methoden onderzoeken voor de automatische verwerking van onderwatergeluid. Tegelijkertijd zullen veldopnames van verschillende geluidsbronnen worden gemaakt om de onderwatergeluidsbibliotheek te vullen.
Geluid legt in het water veel grotere afstanden af dan licht, waardoor het een essentieel hulpmiddel is voor veel zeedieren in de interactie met hun omgeving of als communicatiemiddel. Alle geluiden in het mariene milieu vormen het 'geluidslandschap'. Natuurlijke geluidsbronnen kunnen abiotisch (geofonie) zijn, zoals regen, golven, sedimenttransport, enz., of biotisch (biofonie) zoals de vocalisaties van vissen, echolocatie van dolfijnen en bruinvissen, enz. Menselijke aanwezigheid op zee is alomtegenwoordig en introduceert geluid (antroponie) in de omgeving. Door toenemende activiteiten, zoals scheepvaart, seismische activiteit en offshore energie, neemt ook de geluidsoverlast toe. Met name in de Noordzee, een ondiepe, intensief geëxploiteerde zee, maakt de mix van alle geluidsbronnen het complex om het geluidslandschap te analyseren en te begrijpen.
Geophony
Flow noise caused by current running over hydrophone
Biophony
Common fish vocalization termed jackhammer (species unknown)
Anthrophony
Cargo ship passing nearby (1926 m distance)
Het SoundLib-project richt zich op de langetermijnopnames onder water in het Belgische deel van de Noordzee binnen het LifeWatch-project. Aandacht voor alle drie de categorieën is belangrijk en zal ons begrip van de aanwezigheid en impact van geluid op het zeeleven vergroten. Goed beschreven geluidsgebeurtenissen zullen door de bibliotheek worden opgenomen en beschikbaar worden gesteld volgens de FAIR-dataprincipes. Om het aantal geluidsgebeurtenissen per geluidscategorie of geluidstype te verhogen, moeten machine learning-technieken worden toegepast om langetermijnopnames - en vaak complexe opnames - efficiënt te evalueren door geluid automatisch te detecteren en te classificeren, aangezien dit handmatig doen tijdrovend, omslachtig en foutgevoelig is. Het verhogen van het aantal voorbeelden per geluidstype kan op zijn beurt worden gebruikt als input voor ML-modellen om geluidsgebeurtenissen te detecteren en te classificeren. Tijdens het project zullen aanvullende opnames worden verzameld, geannoteerd en vervolgens aan de bibliotheek worden toegevoegd, waar ze dienen als inputgegevens voor het trainen en evalueren van modellen. Ons doel is om deze modellen toe te passen op langetermijnopnames van de Noordzee om de veiligheid van offshore-infrastructuur te verbeteren en bepaalde (illegale) menselijke activiteiten te stoppen, de biodiversiteit en ecologische gezondheid ervan te monitoren en nieuw onderzoek op het gebied van machine learning en andere relevante gebieden te stimuleren.
Het registreren, detecteren, annoteren en beschrijven van geluidsgebeurtenissen vereist veel menselijke inspanning en kosten. SoundLib wil deze inspanning vergemakkelijken en samenwerking tussen wetenschappers stimuleren door geluidstypen beschikbaar te stellen. Een voorbeeld van een langetermijnopname van een geluidslandschap van het Birkenfels-station (N51°38.940', E2°32.200') in de Noordzee met gelabelde geluidsgebeurtenissen is hieronder te zien.

Langetermijnspectrogram bekeken in Raven Pro (versie 1.6.5, Bioacoustics Research Program) met geannoteerde geluidsgebeurtenissen (spectrogramparameters: 2048 pts FFT, 92% overlap, Hann-venster)
SoundLib wil verbinding maken met de Global Library of Underwater Biological Sounds en de kennis over onbekende en bekende geluiden wereldwijd vergroten. Onderzoekers krijgen zo de datasets en tools die nodig zijn om het mariene milieu te bestuderen.