Artwork

Innehåll tillhandahållet av AI Sweden. Allt poddinnehåll inklusive avsnitt, grafik och podcastbeskrivningar laddas upp och tillhandahålls direkt av AI Sweden eller deras podcastplattformspartner. Om du tror att någon använder ditt upphovsrättsskyddade verk utan din tillåtelse kan du följa processen som beskrivs här https://sv.player.fm/legal.
Player FM - Podcast-app
Gå offline med appen Player FM !

LeakPro skapar förutsättningar för samarbeten kring känslig data

37:43
 
Dela
 

Manage episode 463698091 series 2908682
Innehåll tillhandahållet av AI Sweden. Allt poddinnehåll inklusive avsnitt, grafik och podcastbeskrivningar laddas upp och tillhandahålls direkt av AI Sweden eller deras podcastplattformspartner. Om du tror att någon använder ditt upphovsrättsskyddade verk utan din tillåtelse kan du följa processen som beskrivs här https://sv.player.fm/legal.

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

71 episoder

Artwork
iconDela
 
Manage episode 463698091 series 2908682
Innehåll tillhandahållet av AI Sweden. Allt poddinnehåll inklusive avsnitt, grafik och podcastbeskrivningar laddas upp och tillhandahålls direkt av AI Sweden eller deras podcastplattformspartner. Om du tror att någon använder ditt upphovsrättsskyddade verk utan din tillåtelse kan du följa processen som beskrivs här https://sv.player.fm/legal.

Johan Östman, forskare och projektledare på AI Sweden, berättar i det här avsnittet om projektet LeakPro. Ambitionen är att bättre förstå – och därmed också kunna förhålla sig till – risken för att modeller läcker träningsdata.

– Ska man i en mening beskriva vad vi försöker göra handlar det om att låsa upp samarbeten kring känslig data, säger han.

⁠LeakPro⁠ bygger vidare på slutsatser som drogs i ett tidigare AI Sweden-projekt. I Regulatory Pilot Testbed jobbade Region Halland och Sahlgrenska Universitetssjukhuset tillsammans med IMY och AI Sweden. Syftet var då att utforska hur federerad inlärning skulle kunna användas i sjukvården. Integritetsskyddsmyndigheten konstaterade att det inte gick att bedöma sannolikheten för att modeller, tränade på personuppgifter, läcker träningsdata. Som en konsekvens måste modellerna i sig betraktas som personuppgifter, och därför hanteras utifrån hur personuppgifter regleras.

I LeakPro är ambitionen att svara på den centrala frågan: Hur stor är sannolikheten för att en viss modell läcker träningsdata? De som jobbar för att hitta svaret är AstraZeneca, Region Halland, Sahlgrenska Universitetssjukhuset, Scaleout, Syndata, RISE och AI Sweden.

Känner man till sannolikheten för läckage öppnas två dörrar. Den ena gör det möjligt att fatta verksamhetsbeslut. “Är risken för att träningsdata läcker rimlig i förhållande till värdet som modellen kan skapa?” Den andra gör det möjligt för utvecklare att utvärdera sina modeller och utveckla dem vidare så att risken för läckage minskar till en acceptabel nivå.

– Det vi vill bygga är något som är relevant och användbart, och för att göra det måste vi ligga i frontlinjen av den akademiska forskningen, för att använda de skarpaste attackerna som finns, säger Johan Östman.

I poddavsnittet utvecklar han bakgrunden till projektet, hur samverkan mellan aktörer från olika sektorer stärker LeakPro, vad målbilden är, och hur resan dit ser ut.

  continue reading

71 episoder

Alla avsnitt

×
 
Loading …

Välkommen till Player FM

Player FM scannar webben för högkvalitativa podcasts för dig att njuta av nu direkt. Den är den bästa podcast-appen och den fungerar med Android, Iphone och webben. Bli medlem för att synka prenumerationer mellan enheter.

 

Snabbguide

Lyssna på det här programmet medan du utforskar
Spela