Eine Welt, geleitet von Sam Altman, CEO von OpenAI, steht im Zentrum einer globalen Debatte, nachdem Deutschland die Ausschluss von Irisdaten, die in der Europäischen Union gesammelt wurden, bestimmt hat. Die Entscheidung von BayLDA, Bayerisches Landesamt für Datenschutzaufsicht, es ist ein Beispiel dafür, wie die Erfassung biometrischer Daten aus dem Bereich der Science-Fiction in das Leben der Menschen übergeht
Laut dem Europäischen Datenschutzausschuss (EDPB), 70% der Europäer halten die Erfassung biometrischer Daten für invasiv, Hervorhebung von Bedenken darüber, wie diese Informationen verwendet und gespeichert werden.
Alan Nicolas, Spezialist für künstliche Intelligenz im Geschäftsbereich und Gründer derLegendäre Akademie[IA], Warnung, dass die Auswirkungen dieser Entscheidung weit über die europäischen Grenzen hinausgehen. Die Nutzung biometrischer Daten ist längst keine Frage der Zukunft mehr. Die Menschen müssen verstehen, dass, bei der Bereitstellung dieser Daten, sie setzen ihre Privatsphäre und persönliche Sicherheit aufs Spiel. Die Regulierung muss klarer sein, um die Individuen zu schützen, behauptet
Was beim Iris-Scan auf dem Spiel steht
Die Entscheidung des BayLDA zwang die World, zuvor gesammelte Irisdaten zu löschen, unter Berufung darauf, dass es keine ausreichende rechtliche Grundlage für die Erhebung gab. Obwohl das Unternehmen behauptet, dass die Iris-Codes bereits freiwillig gelöscht wurden, Die Ordnung erfordert neue Verfahren, um die Einhaltung der europäischen Vorschriften zu gewährleisten
Damien Kieran, Chief Privacy Officer von Tools for Humanity, betonte die Notwendigkeit einer präziseren Definition von Anonymisierung in der Europäischen Union. Er garantiert, dass die Irisbilder nicht gespeichert werden, aber die Kritiker der Praxis äußern Bedenken hinsichtlich der Nachverfolgung und Verwendung dieser Codes
Weil es für alle wichtig ist
In Brasilien, a World hat 20 Sammelpunkte in São Paulo aktiviert, wo bereits die Iris von über 189.000 Personen gescannt wurde. Obwohl das Unternehmen Anonymität verspricht, Spezialisten weisen darauf hin, dass biometrische Daten hochsensibel sind und für nicht autorisierte Zwecke ausgenutzt werden können. Die Debatte ist wesentlich, weil wir mit Informationen umgehen, die für Kontrolle oder Überwachung verwendet werden können, etwas, das alle betrifft, unabhängig davon, ob sie in Europa oder in Brasilien sind, kommentiert Nicolas
In anderen Ländern, wie Spanien und Kenia, das Projekt stieß auch auf rechtliche Hürden. Im Falle von Spanien, die Erhebung wurde eingestellt, nachdem die Datenschutzbehörde festgestellt hatte, dass die Praktiken gegen Datenschutzbestimmungen verstießen
Von der Fiktion zur Realität
Alan Nicolas erklärt, dass, vor wenigen Jahren, Die Verwendung von biometrischen Daten zur Schaffung digitaler Identitäten war ein Thema in Science-Fiction-Filmen. Heute, es ist eine Realität, die von der Authentifizierung auf Websites bis hin zum Kampf gegen gefälschte Profile und Deepfakes Einfluss nimmt. Es geht nicht mehr um Fiktion. Die Frage ist jetzt, wie man sicherstellen kann, dass diese Technologien den Menschen zugutekommen, ohne ihre Privatsphäre zu gefährden. Wie immer, Die Technologie ist nicht der Bösewicht. Was Pflege benötigt, ist die Art und Weise, wie die Menschen sie nutzen, hervorhebt
Die deutsche Entscheidung zeigt, dass die Regulierung mit dem Fortschritt der künstlichen Intelligenz und der biometrischen Technologien Schritt halten muss. Die größte Herausforderung besteht darin, die Menschen über die Risiken aufzuklären und sicherzustellen, dass Regierungen und Unternehmen zusammenarbeiten, um klare Regeln zu schaffen. Leider, Die Gesetzgebung in keinem Land der Welt kann mit den Fortschritten und ethischen Fragen, die durch diese neuen Möglichkeiten aufgeworfen werden, Schritt halten. Es bleibt uns, auf die technologische Bildung aller zu zählen, so werden sie sich der Potenziale und Gefahren jedes Werkzeugs bewusst, schloss Nicolas