Djupt multimodalt lärande för fordonstillämpningar
Diarienummer | |
Koordinator | ZENSEACT AB |
Bidrag från Vinnova | 12 262 880 kronor |
Projektets löptid | september 2023 - september 2027 |
Status | Pågående |
Utlysning | Trafiksäker automatisering - FFI |
Ansökningsomgång | Trafiksäker automatisering - FFI - våren 2023 |
Syfte och mål
Syftet med projektet är att förbättra perceptionssystemet i autonoma fordon genom att utveckla avancerade data-drivna sensorfusionsmetoder. Vi kommer att fokusera på tre nyckelområden: (1) Utveckla nya fusionsarkitekturer och kraftfulla datarepresentationer för både dynamiska och statiska objekt. (2) Undersöka självövervakade inlärningstekniker för multimodal sensordata i en bilmiljö. (3) Förbättra perceptionssystemets förmåga att hantera sällsynta händelser, föremål och trafikanter på ett robust sätt.
Förväntade effekter och resultat
I detta projekt fokuserar vi på tekniker som kan förbättra noggrannheten och robustheten hos perceptionssystem för autonom körning och aktiv säkerhet. Därför förväntar vi oss att våra tekniker bidrar till ökad säkerhet för dessa fordon, vilket i sin tur kan påskynda allmänhetens införande av autonoma funktioner. Genom detta hoppas vi kunna bidra till en ökad säkerhet för alla trafikanter.
Planerat upplägg och genomförande
Detta projekt är uppdelat i fyra arbetspaket, där det första handlar om projektledning och spridning. De övriga tre fokuserar var och en på ett delproblem inom det multimodala lärandeämnet. Forskningen inom dessa arbetspaket skulle utföras av tre forskargrupper, bestående av tre doktorander och deras handledare från Chalmers och deras respektive företag, det vill säga Zenseact och Volvo Personvagnar. Varje forskargrupp har sin egen inriktning och problemställning. Alla team kommer att träffas var tredje månad för att utbyta idéer och dela sina framsteg.