Datenschutz für KI-Anwendungen verbessern

740px 535px

Künstliche Intelligenz (KI) unterstützt die Menschen in Medizin, Mobilität und im Arbeitsalltag. Grundlage für KI-Systeme ist das Training mit Daten – häufig auch personenbezogenen Informationen. Unternehmen stellt die Entwicklung von KI-Anwendungen mithilfe personenbezogener Daten vor große rechtliche Unsicherheiten; die Hürden zur Einhaltung des Datenschutzes und des Rechts auf informationelle Selbstbestimmung sind hoch. Aktuell geläufig in der KI-Entwicklung ist die Methode des zentralisierten maschinellen Lernens (ML). Dabei wird ein statistisches Modell über einen Lernalgorithmus zentral auf einem Server (beim Anwender oder in der Cloud) trainiert. Dazu sammelt der Server für das Training Daten von Endgeräten wie Smartphones oder Sensoren ein und bündelt sie zentral. Das trainierte Modell kann dann wieder an die Endgeräte verteilt beziehungsweise auf ihnen angewandt werden. Diese Form des maschinellen Lernens wird beispielsweise in der industriellen Produktion zur vorausschauenden Überwachung und Wartung von Anlagen (Predictive Maintenance) eingesetzt. Die Methode des verteilten maschinellen Lernens bietet eine technische Lösung, datenschutzwahrende KI-Anwendungen zu schaffen: Statt zentral auf einem Server werden Modelle des maschinellen Lernens auf vielen Endgeräten dezentral trainiert. Somit bleiben die persönlichen Daten bei den Nutzenden. "Verteiltes maschinelles Lernen eröffnet neue Möglichkeiten zur effektiven und skalierbaren Nutzung von Daten, ohne diese teilen zu müssen. Dadurch werden viele hilfreiche Anwendungen mit sensitiven Daten erst möglich", so Ahmad-Reza Sadeghi, Professor für Informatik der Technischen Universität Darmstadt und Mitglied der Arbeitsgruppe IT-Sicherheit und Privacy der Plattform Lernende Systeme. Zu den aktuellen technischen Ansätzen des verteilten maschinellen Lernens zählen das Split Learning, Federated Learning und Swarm Learning. Allerdings könne das verteilte maschinelle Lernen auch neue Einfallstore für Angreifer öffnen und möglicherweise ein trügerisches Sicherheitsgefühl erzeugen. Wie neu entstehende Angriffsfenster geschlossen werden können, ohne die Leistungsfähigkeit einzuschränken, ist noch Gegenstand der Forschung.

Autor(en): wi

Mehr zu Künstliche Intelligenz

Alle Branche News