Datentreuhänderschaft spielt eine Schlüsselrolle zur Inzentivierung, zur Qualitätsicherung und für den Datenschutz beim Teilen von Daten. Re-Identifizierungsrisiken merkmalsreicher Datensätze führen zur besonderen Herausforderung, dass sich inzwischen die harte Grenze zwischen datenschutzpflichtigen Daten mit Personenbezug und anonymen Datensätzen immer mehr auflöst. Allerdings erlauben gerade im datenintensiven Bereich des maschinellen Lernens Verfahren der Differential Privacy bzw. des Distributed Privacy Preserving Computing einen fein justierbaren Informationsfluss, d.h. die flexible Wahl des Grads der Datenfreigabe. An die Stelle einer binären Entscheidung für vs. gegen die Freigabe von Daten tritt das graduelle Tolerieren von größeren vs. kleineren Re-Identifizierungsrisiken. Idealerweise sollten Datengebende ihre eigene Risikotoleranz flexibel und kontextabhängig an einen Vertrauenszuwachs bzw. -abbau anpassen können. Es existieren aktuell kaum Datentreuhandmodelle, die eine transparente Feinabstimmung von Vertrauenswürdigkeit, Risikotoleranz und Datenfreigabe unterstützen. In Zeiten, in denen wichtige Akteure der Datenindustrie mit – intransparentem – Hinweis auf Differential Privacy regelhaft Einwilligungen zur Datennutzung einholen, ist hier Abhilfe dringend geboten.
TrustNShare zielt auf die Konzeption und Etablierung eines Datentreuhandmodells, das quasi-kontinuierliche Abstufungen von Vertrauen und Anreizen zur Kalibrierung bestmöglicher Datennutzungsszenarien verwendet. Um Akzeptanz und Wirksamkeit des im Projekt entwickelten Datentreuhandmodells durch potentielle Datengeber und -nehmer zu gewährleisten, werden diese in die wissenschaftliche Untersuchung relevanter Einflussgrößen von Data Sharing aktiv eingebunden. Die Erarbeitung und Ausgestaltung von Incentives im Rahmen des Datentreuhandmodells erfolgt in einem partizipativen Forschungsprozess (Citizen Science) gemeinsam mit Datengebenden und -nehmenden.