Listeners:
Top listeners:
Quando l’IA impara a vedere come noi: la nuova sinapsi giapponese rivoluziona la visione artificiale. Di Chiara Vergani
Un innovativo traguardo nel campo della neuroscienza visiva e dell’intelligenza artificiale è stato recentemente raggiunto da un team di ricerca giapponese, guidato dal professor Takashi Ikuno della Tokyo University of Science. I ricercatori hanno sviluppato una sinapsi artificiale autoalimentata, capace di distinguere i colori con una precisione sorprendente, prossima a quella dell’occhio umano.
L’essere umano grazie a un sistema visivo altamente efficiente, riesce a processare una grande quantità di informazioni visive filtrandole in modo selettivo. Questo permette una visione precisa con un consumo energetico contenuto. Le tecnologie convenzionali di visione artificiale invece richiedono grandi quantità di energia e capacità di calcolo per gestire e interpretare i dati visivi.
Proprio per avvicinarsi all’efficienza del sistema biologico, il gruppo di Ikuno ha ideato una sinapsi artificiale basata su celle solari sensibilizzate tramite coloranti, capaci di generare elettricità in autonomia e reagire alla luce con estrema sensibilità.
Il dispositivo integra due celle solari sensibilizzate a coloranti, progettate per rispondere in modo differente alle varie lunghezze d’onda della luce. Questo approccio consente al sistema non solo di distinguere i colori con una risoluzione di 10 nanometri su tutto lo spettro visibile, ma anche di eseguire operazioni logiche complesse, grazie alle risposte elettriche bipolari: positiva sotto luce blu, negativa sotto luce rossa. In pratica la sinapsi artificiale sviluppata riesce a svolgere operazioni logiche come AND, OR e XOR, che nei sistemi tradizionali richiederebbero più componenti.
Il dispositivo è stato testato in un sistema di calcolo chiamato “serbatoio fisico”, utilizzato per classificare movimenti umani codificati nei colori rosso, verde e blu. I risultati sono stati sorprendenti: una precisione dell’82% nella classificazione di 18 combinazioni diverse, utilizzando un solo dispositivo al posto dei numerosi fotodiodi normalmente necessari.
Le applicazioni di questa tecnologia sono vaste: nel settore automobilistico, i veicoli autonomi potrebbero riconoscere segnali e semafori in modo più efficiente e con un minore consumo di energia. In ambito sanitario, dispositivi indossabili potrebbero monitorare parametri vitali come i livelli di ossigeno con un consumo minimo della batteria. Nell’elettronica di consumo, smartphone e visori AR/VR potrebbero offrire prestazioni avanzate mantenendo una lunga durata della batteria.
Il professor Ikuno sottolinea l’importanza di questo traguardo: la nuova sinapsi artificiale dimostra che è possibile realizzare dispositivi a basso consumo energetico dotati di capacità di riconoscimento visivo avanzato e discriminazione cromatica simile a quella dell’occhio umano. Una tecnologia che potrebbe ridefinire il modo in cui i dispositivi edge – come smartphone, droni o sensori medici – percepiscono e interpretano il mondo.
Finanziato dal Japan Science and Technology Agency (JST) e dal programma SPRING, questo studio rappresenta un passo fondamentale verso una fusione sempre più armoniosa tra biologia e tecnologia. Con questa innovazione la visione artificiale diventa non solo più efficiente, ma anche più simile alla nostra, aprendo scenari inediti per il futuro dell’intelligenza artificiale.
Scritto da: Marco Naponiello
Co-Municare.it è un progetto editoriale di Radio Città 105.
Giornale On-Line iscritto al Tribunale di Salerno numero cronologico 6/2024 del 01/02/2024 RG n 194/2024
Copyright © 2025 Co-Municare di Associazione Comunicare. Tutti i diritti sono Riservati.