La tecnologia Apple che sembra un episodio di Black Mirror: controllare i dispositivi con la mente è ormai possibile

Posted on

modenavoltapagina

Difficulty

Prep time

Cooking time

Total time

Servings

La prossima rivoluzione di Apple non ha né schermo né pulsanti. E ci stanno lavorando da anni. Riuscite a immaginare di controllare un iPhone o un Apple Vision Pro semplicemente con il pensiero? Non con il movimento degli occhi e delle mani, ma direttamente con la mente. Sembra uscito da un film di fantascienza, ma è successo davvero. Al di là dei megapixel, dei processori e degli schermi che vediamo in ogni keynote, Apple sta lavorando a tecnologie incredibili come quelle che analizziamo oggi. Perché mentre si vocifera sul prossimo iPhone 17, a Cupertino si stanno sviluppando progetti per consentire a persone con mobilità limitata di navigare in Internet con naturalezza o affacciarsi (virtualmente) sul bordo di una montagna.

La prossima rivoluzione di Apple non è un dispositivo, è leggere la tua mente

All’Apple Park stanno sviluppando un nuovo standard tecnologico che permetterà alle persone di controllare il proprio iPhone tramite segnali neurali catturati da impianti cerebrali. Questa tecnologia, che Apple prevede di lanciare alla fine di quest’anno, è stata sviluppata in collaborazione con Synchron, un’azienda specializzata in interfacce cervello-computer (BCI), con sede a New York e in Australia.

, компанией, занимающейся интерфейсами мозг-компьютер (BCI), базирующейся в Нью-Йорке и Австралии.

L’obiettivo di tutto questo è avvicinare la tecnologia a molte più persone e migliorare la loro vita quotidiana. Questa settimana abbiamo scoperto le novità in materia di accessibilità che arriveranno con iOS 19 e abbiamo anche esaminato l’importanza che Apple attribuisce alle persone con disabilità. Questo impianto cerebrale per controllare l’iPhone (che ha già permesso di controllare alcuni Apple Vision Pro) conferma l’impegno di Tim Cook a migliorare la vita di tutti.

L’approccio è profondamente umano: consentire a decine di migliaia di persone che non possono usare le mani a causa di gravi lesioni al midollo spinale o malattie come la sclerosi laterale amiotrofica (SLA) di accedere alla tecnologia che la maggior parte di noi dà per scontata.

Mark Jackson: l’uomo che già visita le Alpi senza potersi alzare dalla sedia

Mark Jackson è uno dei pazienti affetti da SLA che sta testando questa tecnologia rivoluzionaria. Nonostante non possa alzarsi né viaggiare dalla sua casa vicino a Pittsburgh a causa della sua condizione, Jackson ha vissuto un’esperienza straordinaria: affacciarsi sul bordo di una montagna nelle Alpi svizzere e sentire le gambe tremare.

No, non era un sogno né un’allucinazione. Jackson stava usando un Apple Vision Pro collegato al suo impianto Stentrode, che traduceva i suoi segnali cerebrali in comandi per il dispositivo di realtà mista di Apple. “È come sentirsi di nuovo capaci”, commenta Jackson.

Si stima che circa 150.000 persone negli Stati Uniti che soffrono di gravi disabilità agli arti superiori potrebbero essere i candidati più diretti per dispositivi con questa interfaccia cervello-computer. Può sembrare un mercato piccolo rispetto ai milioni di iPhone che Apple vende ogni anno, ma l’azienda di Cupertino ha una lunga tradizione nell’implementare funzionalità di accessibilità anche quando non c’è un vantaggio economico così diretto.

Synchron: il partner di Apple che legge nella mente già dal 2019

Synchron non è una nuova arrivata nel campo delle interfacce cervello-computer. Anche se oggi può sembrare quasi impossibile vedere qualcosa del genere, è qualcosa che sta accadendo. Fondata con un approccio meno invasivo rispetto a concorrenti come Neuralink, l’azienda ha già effettuato impianti su circa una dozzina di pazienti dal 2019, principalmente con SLA o altre gravi disabilità motorie.

La sua tecnologia di punta è lo “Stentrode”, un impianto simile a uno stent che viene inserito attraverso la vena giugulare per raggiungere un vaso sanguigno sopra la corteccia motoria del cervello. Questa forma di impianto evita la necessità di un intervento chirurgico “a cielo aperto”, un vantaggio rispetto ad altre aziende con soluzioni più invasive.

Il dispositivo è dotato di 16 elettrodi che captano i segnali neuronali e li traducono in comandi digitali. È proprio qui che entra in gioco la collaborazione con Apple: questi segnali cerebrali vengono integrati con una funzione del sistema operativo Apple chiamata “switch control”, che trasferisce letteralmente il controllo a questo nuovo tipo di input.

Questo non è del tutto nuovo per Apple. L’azienda ha fatto un passo simile nel 2014, quando ha lanciato uno standard tecnologico per consentire agli apparecchi acustici di comunicare con gli iPhone tramite Bluetooth, uno standard che da allora è stato adottato dalla maggior parte dei produttori di apparecchi acustici.

Tom Oxley, CEO di Synchron, spiega una delle principali difficoltà attuali: “Oggi, le aziende che producono interfacce cervello-computer devono ingannare i computer facendogli credere che i segnali provenienti dai loro impianti provengono da un mouse”. È come se il cervello e il dispositivo parlassero lingue diverse e avessero bisogno di un traduttore improvvisato.

Synchron vs Neuralink: più elettrodi non sempre significa meglio

Non si può parlare di interfacce cervello-computer senza menzionare Neuralink, l’azienda di Elon Musk che sta facendo passi da gigante in questo campo. Il suo dispositivo N1 cattura molti più dati cerebrali rispetto allo Stentrode di Synchron, grazie ai suoi oltre 1.000 elettrodi impiantati direttamente nel cervello.

Il primo utente dell’impianto Neuralink ha dimostrato di poter muovere un cursore con i pensieri più velocemente di alcune persone con un mouse. Tuttavia, il vantaggio competitivo di Synchron risiede nel suo metodo meno invasivo e nella sua maggiore esperienza con gli impianti sull’uomo, il che spiega forse perché Apple abbia deciso di collaborare con loro in questa prima fase.

Mentre leggete questo articolo, Apple sta già preparando come scorrere con gli occhi

Il lavoro di Apple sulle interfacce cervello-computer è solo una parte della sua visione per il futuro dell’interazione con i dispositivi. L’azienda sta anche sviluppando una funzione per Vision Pro che consentirà agli utenti di navigare nel software con gli occhi, sfruttando l’hardware e il software di tracciamento oculare già presenti nel dispositivo. Questa capacità di scorrimento oculare è in fase di test come parte di visionOS 3. Apple prevede di presentare il nuovo sistema operativo Vision Pro al WWDC25, il prossimo 9 giugno.

Quello che tutti pensiamo: potranno leggere i miei pensieri?

Lo sviluppo di interfacce cervello-computer solleva inevitabilmente questioni relative alla privacy. Cosa succede ai dati raccolti direttamente dal nostro cervello? Synchron sottolinea che tiene conto della privacy dei dati cerebrali e assicura che non condivide informazioni sensibili con terzi. Apple, dal canto suo, ha una solida reputazione in materia di privacy, il che potrebbe rassicurare coloro che temono che i propri pensieri possano essere monitorati.

Il prossimo WWDC di giugno ci darà ulteriori indizi su come Apple immagina questo futuro e quale ruolo avrà in esso. Ciò che è chiaro è che l’azienda che ha rivoluzionato il modo in cui utilizziamo i telefoni cellulari è ora pronta a rivoluzionare il modo in cui le nostre menti interagiscono con la tecnologia.

Tags:

Ti potrebbero piacere anche

Lascia un commento