Occhiali Intelligenti e Riconoscimento Facciale: La Frontiera della Privacy a Rischio | Meta login | Meta Business | Meta Facebook | Turtles AI

Occhiali Intelligenti e Riconoscimento Facciale: La Frontiera della Privacy a Rischio
Due studenti di Harvard sviluppano una tecnologia inquietante per l’estrazione di dati personali, sollevando allarmi su possibili abusi e violazioni della privacy
Isabella V3 ottobre 2024

 

 Due studenti di Harvard hanno sviluppato una tecnologia inquietante che combina occhiali intelligenti Meta con strumenti di ricerca facciale, permettendo l’accesso a dati personali di estranei semplicemente osservandoli. Questa innovazione solleva gravi preoccupazioni sulla privacy e sull’abuso potenziale di tali strumenti. 

Punti chiave:

  •  La tecnologia permette di identificare estranei e raccogliere dati personali in tempo reale.
  •  Gli studenti hanno utilizzato occhiali intelligenti Meta modificati per testare la loro invenzione.
  •  La ricerca facciale e i modelli linguistici aumentano il rischio di violazioni della privacy.
  •  L’iniziativa mira a sensibilizzare l’opinione pubblica sui problemi legati alla protezione dei dati.

Due studenti dell’Università di Harvard, AnhPhu Nguyen e Caine Ardayfio, hanno presentato una tecnologia che fonde occhiali intelligenti Meta Ray Ban 2 con un motore di ricerca facciale chiamato PimEyes, creando un sistema in grado di rivelare dati personali come nome, indirizzo e numero di telefono semplicemente guardando una persona. Nel loro progetto, che si propone di mettere in luce le vulnerabilità legate alla privacy, hanno realizzato un dispositivo denominato I-XRAY, capace di raccogliere informazioni su estranei in pochi secondi. Attraverso un video dimostrativo, hanno mostrato come questo sistema, che combina ricerca facciale inversa con un modello di linguaggio di grandi dimensioni, consenta un’estrazione automatica e rapida di dati che prima richiedevano ore di ricerca. 

Nguyen ha sottolineato che gli occhiali intelligenti Meta sembrano simili a occhiali normali, rendendo questa tecnologia particolarmente insidiosa per chi potrebbe voler raccogliere informazioni su persone ignare. L’implementazione di questa invenzione ha sollevato interrogativi etici, poiché gli studenti hanno condotto test su soggetti non consapevoli nella vita reale, rivelando quanto possa essere facile identificare gli individui con l’accesso alle informazioni online. Nonostante alcuni risultati siano stati contestati, la dimostrazione ha chiarito i rischi associati a tali strumenti. 

Nguyen e Ardayfio hanno esplicitamente dichiarato di non voler rilasciare il codice della loro tecnologia per evitare possibili abusi. La loro intenzione, piuttosto, è sensibilizzare le persone riguardo alla privacy digitale e incoraggiarle a rinunciare a motori di ricerca invasivi come PimEyes, strumento che, nonostante non identifichi direttamente gli individui, fornisce link alle loro immagini e a informazioni identificative. Hanno anche fornito istruzioni su come gli utenti possano rimuovere le proprie informazioni dai motori di ricerca, contribuendo a proteggere la propria identità.

Il progetto ha attirato l’attenzione su un tema cruciale: le implicazioni legali e morali dell’uso di tecnologie di riconoscimento facciale. Mentre le aziende tecnologiche, come Meta e PimEyes, minimizzano i rischi sottolineando che simili pericoli esistono anche con le immagini tradizionali, la possibilità di abusi resta alta, specialmente negli Stati Uniti, dove le leggi sulla privacy sono meno restrittive rispetto all’Unione Europea. L’eventualità che questa tecnologia possa essere utilizzata per scopi dannosi, come stalking o truffe, rende la questione particolarmente preoccupante. Gli studenti hanno dichiarato che sperano che la consapevolezza sulle problematiche legate alla privacy possa bilanciare l’impatto negativo delle loro scoperte, rimarcando così l’importanza di una riflessione collettiva su come proteggere i dati personali in un’era in cui la tecnologia avanza a passi da gigante.