Praxisnahe Umsetzung seit 2013

Ihr Experte für Datenschutz und Informationssicherheit

Arbeits­pa­pier zur Gesichts­er­ken­nung mit Videoüberwachung

Arbeitspapier zur Gesichtserkennung vom IWGDPT angenommen. Chancen und Risiken liegt eng zusammen.

Ein Arbeits­pa­pier zur Gesichts­er­ken­nung mit Video­über­wa­chung wur­de von der Inter­na­tio­nal Working Group on Data Pro­tec­tion in Tech­no­lo­gy (IWGDPT), auch „Ber­lin Group“ genannt, unter Vor­sitz des BfDI, erar­bei­tet und ange­nom­men. Das Arbeits­pa­pier beschreibt die Ein­satz­mög­lich­kei­ten im pri­va­ten und öffent­li­chen Bereich und stellt sowohl Risi­ken als auch prak­ti­sche Emp­feh­lun­gen für einen daten­schutz­kon­for­men Ein­satz dar. Die wich­tigs­ten Aus­zü­ge sind in die­sem Blog­bei­trag zusam­men­ge­fasst. Das voll­stän­di­ge Doku­ment in eng­lisch fin­den Sie hier.

Ein­füh­rung

In ihrem Arbeits­pa­pier zur Gesichts­er­ken­nung mit Video­über­wa­chung erkennt die Ber­lin-Grup­pe die poten­zi­el­len Vor­tei­le der Gesichts­er­ken­nungs­tech­no­lo­gie (Face Reco­gni­ti­on Tech­no­lo­gy FRT) an, ins­be­son­de­re im Hin­blick auf die Ver­bes­se­rung der öffent­li­chen Sicher­heit. Gleich­zei­tig weist sie auf die erheb­li­chen Risi­ken hin, die mit einem unver­ant­wort­li­chen Ein­satz von Gesichts­er­ken­nungs­tech­no­lo­gien ver­bun­den sind, ein­schließ­lich Daten­schutz­ver­let­zun­gen, Über­wa­chung und Dis­kri­mi­nie­rung. Das Arbeits­pa­pier zur Gesichts­er­ken­nung mit Video­über­wa­chung unter­stützt die Reso­lu­tio­nen der Glo­bal Pri­va­cy Assem­bly (GPA) und for­dert glo­ba­le Stan­dards sowie tech­ni­sche und regu­la­to­ri­sche Lösun­gen, um die­sen Her­aus­for­de­run­gen zu begegnen.

Beschrei­bung der Technologie

Die Gesichts­er­ken­nungs­tech­no­lo­gie ver­wen­det bio­me­tri­sche Daten, um Gesichts­merk­ma­le zu ana­ly­sie­ren und Per­so­nen zu iden­ti­fi­zie­ren oder zu veri­fi­zie­ren. Ein Algo­rith­mus ver­gleicht die extra­hier­ten Merk­ma­le mit einer Daten­bank bekann­ter Gesich­ter. Das Arbeits­pa­pier unter­schei­det zwi­schen der Gesichts­er­ken­nung und der Gesichtsanalyse:

Gesichts­er­ken­nungIden­ti­fi­zie­rung oder Veri­fi­zie­rung von Per­so­nen durch Ver­gleich von Gesichts­merk­ma­len mit einer Daten­bank, d. h.
1. Fest­stel­lung, dass ein Gesicht in einem Bild vor­han­den ist (Erken­nung)
2. Bestä­ti­gung der Iden­ti­tät einer Per­son durch Ver­gleich mit einem gespei­cher­ten Bild (z.B. Rei­se­pass)
3. Ver­gleich eines unbe­kann­ten Gesichts mit einer Daten­bank bekann­ter Personen
Gesichts­ana­ly­seErmit­telt Merk­ma­le wie Alter, Geschlecht, Emo­tio­nen und eth­ni­sche Zuge­hö­rig­keit, jedoch nicht zur Iden­ti­fi­zie­rung oder Verifizierung.

Ein­satz­be­rei­che

Pri­va­ter Sektor

  1. Siche­rer Zugang: FRT wird zur Kon­trol­le des phy­si­schen und elek­tro­ni­schen Zugangs ver­wen­det, z.B. zum Ent­sper­ren von Gerä­ten oder zur Zutritts­kon­trol­le in Gebäuden.
  2. Sicher­heits­über­wa­chung: Ver­an­stal­tungs­or­te und Geschäf­te nut­zen FRT zur Erken­nung von Per­so­nen, die als gefähr­lich gel­ten oder Dieb­stäh­le began­gen haben.
  3. Mar­ke­ting und Kun­den­ser­vice: Unter­neh­men set­zen FRT ein, um geziel­tes Mar­ke­ting und ver­bes­ser­ten Kun­den­ser­vice zu bie­ten, z.B. in Hotels oder bei Autovermietungen.
  4. Anwe­sen­heits­über­wa­chung: Unter­neh­men nut­zen FRT, um die Anwe­sen­heit von Mit­ar­bei­tern zu überwachen.
  5. Spie­le: Video­spie­le und Kon­so­len ver­wen­den FRT zur Inte­gra­ti­on von Benut­zer­iden­ti­tä­ten und zur Altersverifikation.

Öffent­li­cher Sektor

  1. Straf­ver­fol­gung und öffent­li­che Sicher­heit: Behör­den nut­zen FRT zur Iden­ti­fi­zie­rung von Ver­däch­ti­gen und zur Über­wa­chung öffent­li­cher Räume.
  2. Grenz­kon­trol­le: FRT wird zur Über­prü­fung von Rei­sen­den und zur Grenz­si­che­rung eingesetzt.

Risi­ken und Herausforderungen

Der Ein­satz der bio­me­tri­schen Gesichts­er­ken­nung birgt erheb­li­che Risi­ken, wie zum Beispiel

  1. Ver­let­zung des Daten­schut­zes: Die Erfas­sung und Spei­che­rung bio­me­tri­scher Daten kann zu Miss­brauch und unbe­rech­tig­tem Zugriff füh­ren. So wur­de bei­spiels­wei­se ein Super­markt in den Nie­der­lan­den ver­warnt, weil er FRT ohne aus­rei­chen­de Rechts­grund­la­ge ein­ge­setzt hatte.
  2. Über­wa­chung: FRT kann zur Mas­sen­über­wa­chung ein­ge­setzt wer­den, wodurch indi­vi­du­el­le Frei­hei­ten ein­ge­schränkt wer­den. Dies könn­te zum Auf­bau umfang­rei­cher Über­wa­chungs­netz­wer­ke füh­ren, die einen per­ma­nen­ten Zugriff auf per­so­nen­be­zo­ge­ne Daten ermöglichen.
  3. Dis­kri­mi­nie­rung: Feh­ler­haf­te Algo­rith­men kön­nen zu Ver­zer­run­gen und zur Dis­kri­mi­nie­rung bestimm­ter Grup­pen füh­ren. Bei­spiels­wei­se haben Stu­di­en gezeigt, dass FRT häu­fi­ger Feh­ler bei der Iden­ti­fi­zie­rung von Per­so­nen mit dunk­ler Haut­far­be macht.
  4. Fal­se Positives/Negatives: Feh­ler­haf­te Algo­rith­men kön­nen zu Ver­zer­run­gen und Dis­kri­mi­nie­rung bestimm­ter Grup­pen füh­ren. Bei­spiels­wei­se haben Stu­di­en gezeigt, dass FRT häu­fi­ger Feh­ler bei der Iden­ti­fi­zie­rung von Per­so­nen mit dunk­ler Haut­far­be macht.

Emp­feh­lun­gen

Das Arbeits­pa­pier emp­fiehlt eine sorg­fäl­ti­ge Abwä­gung bei der Imple­men­tie­rung von FRT, einschließlich:

  1. Ein­hal­tung der Daten­schutz­ge­set­ze: Sicher­stel­len, dass der Ein­satz von FRT recht­lich zuläs­sig ist und den Daten­schutz­be­stim­mun­gen ent­spricht. Dies beinhal­tet auch die Ein­hal­tung von Vor­schrif­ten zur Daten­spei­che­rung und ‑siche­rung.
  2. Trans­pa­renz und Auf­klä­rung: Die Öffent­lich­keit und die Nut­zer soll­ten über den Ein­satz und die Funk­ti­ons­wei­se von FRT infor­miert wer­den. Dazu gehö­ren kla­re Infor­ma­tio­nen dar­über, wo und wie die Tech­no­lo­gie ein­ge­setzt wird und wel­che Daten gesam­melt werden.
  3. Regu­lie­rung und Stan­dards: Ent­wick­lung und Durch­set­zung glo­ba­ler Stan­dards und Vor­schrif­ten für den Ein­satz von FRT. Regu­lie­rungs­be­hör­den soll­ten sicher­stel­len, dass FRT-Sys­te­me regel­mä­ßig geprüft und über­wacht werden.
  4. Tech­ni­sche Lösun­gen: För­de­rung der For­schung und Ent­wick­lung von Tech­no­lo­gien, die die Pri­vat­sphä­re schüt­zen und die Genau­ig­keit von FRT ver­bes­sern. Dazu gehört die Ent­wick­lung von Algo­rith­men, die weni­ger anfäl­lig für Ver­zer­run­gen sind und die Feh­ler­ra­te minimieren.

Schluss­fol­ge­rung

Eine bio­me­tri­sche Gesichts­er­ken­nung bie­tet sowohl Chan­cen als auch Her­aus­for­de­run­gen. Der ver­ant­wor­tungs­vol­le Ein­satz die­ser Tech­no­lo­gie erfor­dert eine Balan­ce zwi­schen Sicher­heit und Daten­schutz, unter­stützt durch kla­re gesetz­li­che Rah­men­be­din­gun­gen und tech­no­lo­gi­sche Inno­va­tio­nen. Es ist ent­schei­dend, dass alle Betei­lig­ten – von poli­ti­schen Ent­schei­dungs­trä­gern bis hin zu Unter­neh­men – zusam­men­ar­bei­ten, um die Vor­tei­le von FRT zu nut­zen und gleich­zei­tig die Risi­ken zu minimieren.

SIe brau­chen Unterstützung?

Möch­ten Sie mehr über Daten­schutz und Video­über­wa­chung erfah­ren? Neh­men Sie an unse­ren Web­i­na­ren oder E‑Lear­ning-Kur­sen teil, um detail­lier­te Ein­bli­cke und prak­ti­sche Tipps zu erhal­ten. Mel­den Sie sich jetzt an und blei­ben Sie datenschutzkonform!

Inhalte

projektanfrage-datenschutz

Ein wichtiger Hinweis: Die Beiträge ersetzen nicht die Datenschutzberatung und stellen keine rechtliche Beratung dar. Die Beiträge geben einen groben Überblick über die Thematik und geben erste Informationen zum Sachverhalt. Vielleicht sind die Inhalte auch nicht mehr aktuell, weil sich die Rechts­prech­ung oder die Rechts­grundlagen geändert haben. 

Aktuelle News zum Thema Daten­schutz und Infor­mations­sicherheit

In diesem Bereich finden Sie Nachrichten und Hintergrundinformationen zum Thema Datenschutz und Informationssicherheit. Sie haben ein Thema, was einen Beitrag wert wäre? Melden Sie sich gerne.

Kontakt

Buchen Sie einen entsprech­enden Termin für eine erste kostenlose Erstberatung zum Thema Datenschutz und Informationssicherheit. Alternativ schicken Sie mir eine E-Mail

Lassen Sie uns über Ihr Projekt sprechen. Buchen Sie jetzt einen Termin!