domenica 4 gennaio 2015

Aggiornamenti su EyeTracker


Abbiamo deciso di ripartire da zero e probabilmente abbiamo fatto bene...

Traendo ispirazione dal noto progetto Instructables Eyewriter, abbiamo deciso di costruirci il nostro hardware personalizzato, abbandonando l'uso della Sony PSEye in favore di una più facilmente reperibile, economica e compatibile webcam Trust Spotlight Pro.

Stiamo scrivendo nuovamente il software in Processing, linguaggio che conosciamo meglio di OpenFrameworks e che, almeno così speriamo, dovrebbe darci minori problemi nella compilazione di applicazioni per differenti sistemi operativi.

L'algoritmo di pupil detection (vedi foto sopra) è già a buon punto, dobbiamo soltanto renderlo più "solido", abbiamo sperimentato anche algoritmi per il gaze tracking, ma preferiamo attendere una maggiore affidabilità del tracciamento della pupilla.

Ciao a tutti e Buon 2015!



venerdì 31 ottobre 2014

Paperhub bluetooth "fabbricabile in un FabLab"



La foto qui sopra dimostra che il nuovo Paperhub Bluetooth è quasi finito.

Fabbricare e assemblare un oggetto del genere a mano non è certamente un'operazione rapida! 

Appena avremo concluso il nostro catalogo di ausili "open design" (ormai manca solo il puntatore oculare...), inizieremo a capire come rendere più facilmente assemblabili i nostri ausili, probabilmente con l'aiuto dei Fab Lab toscani.

A presto!

P.S 
Colgo l'occasione per ringraziare Riccardo Innocenti del Laboratorio Ausili di Prato che mi ha suggerito il componente elettronico necessario per poter utilizzare Paperhub con i dispositivi mobili (smartphone e tablet).

sabato 25 ottobre 2014

Eduino robot e la collaborazione con Paleos: altra novità per Handimatica 2014!

Sussidi didattici e robot Eduino presso Fiera di Firenze 16-19 Ottobre 2014




Eduino robot e il suo controller Kinect
Nonostante Eduino robot sia ancora un prototipo piuttosto immaturo, ha resistito abbastanza bene allo stress test di 4 giorni di "Fiera di Firenze", anche grazie alla collaborazione e al monitoraggio (durante gli orari di mia assenza) effettuato dagli amici di Paleos.

Eduino è un progetto che nasce dalla collaborazione di Make Ausili con Paleos, al fine di creare un piccolo, simpatico, personalizzabile ed economico sussidio per la robotica educativa; riteniamo che il lavoro di programmazione sui pattern motori e gestione dei motori, così come il design dell'interfaccia utente mediante Kinect, sia un ottimo esercizio di logica e problem solving. Alcune insegnanti hanno suggerito interessanti possibili usi per spiegare ai propri studenti il calcolo combinatorio, vedremo...

Didattica ed educazione a parte, porteremo Eduino robot ad Handimatica 2014, al fine di solleticare l'immaginazione del pubblico su potenziali e plausibili scenari di robotica accessibile (grazie alle interfacce virtuali personalizzabili con Kinect) a ragazzi/e con grave disabilità motoria.

A presto!

venerdì 24 ottobre 2014

Paperhub Bluetooth in arrivo!

Tutta la parte elettronica ed informatica è collaudata, manca solo la costruzione della nuovo contenitore e l'integrazione con il vecchio codice Arduino. 

Paperhub Bluetooth sarà la centralina definitiva, collegabile senza fili a computer, smartphones e tablet; per il momento ho avuto modo di testarla con il mio smartphone e tablet Android, nei prossimi giorni proverò anche con Apple iPad e iPhone.

Handimatica stiamo arrivando con una valigia piena di invenzioni!

giovedì 25 settembre 2014

Robots accessibili ad Handimatica 2014

Con gli amici di Paleos stiamo costruendo una piccola collezione di robots che utilizzeremo per i corsi di robotica educativa #RobotLeague

Tutti i robots in corso di fabbricazione sono gestiti da una scheda Arduino, che può a sua volta ricevere comandi dalla periferica Microsoft Kinect. Grazie a Kinect riusciamo a personalizzare i "gesti di comando" in base alle caratteristiche motorie dell'utente principale! Tutto ciò significa che stiamo rendendo più accessibile, a persone con grave disabilità motoria, un giocattolo dal comportamento complesso, quale è appunto un robot meccanico.

Nel frattempo scoprite di quali movimenti abbiamo fin qui fornito il nostro robot!


A presto!
Daniele

sabato 30 agosto 2014

Kinect in modalità Head-Joystick: controlla il mouse con i movimenti della tua testa!


Finalmente ci stiamo avvicinando alla meta. Come preannunciato più volte, riteniamo Kinect la piattaforma ideale per realizzare sistemi di controllo accessibili basati sul puntamento a distanza; ovviamente parliamo di sistemi a basso costo...

Prevediamo di implementare tre modalità di funzionamento: Head Joystick, Eye Blink e Gaze Tracking.

Head Joystick permette di controllare il mouse con i movimenti della testa, nelle prossime settimane pubblicheremo un video relativo alla modalità Eye Blink...

Prevediamo di pubblicare codici, tutorials, video dimostrativi, applicazioni varie ecc... del progetto Kinect in data Gennaio 2015.

A presto!

domenica 24 agosto 2014

Robottini


Ripresi i lavori sui robottini che da fine Settembre saranno il primario ausilio didattico dei workshops "Paleos Makers Gym" che stiamo organizzando con gli amici di Paleos.
Quattro robot che useremo per insegnare robotica, Arduino e soprattutto controllo robot con Kinect!
Esapode a parte (il robot più grosso, in alto a sinistra nella foto), per il momento ci siamo limitati a scaricare i modelli da Thingverse e a fare un po' di tinkering al fine di scoprire punti deboli e di forza di tali modelli "preconfezionati". Da domani cominciamo a modificare!

A presto!

mercoledì 2 luglio 2014

Da Settembre parte la Robotica Educativa presso Paleos!


Non siamo certo i primi ad organizzare attività di questo tipo, ma siamo tra i pochi che, grazie alla collaborazione di Paleos, producono robots specificamente progettati per finalità educative e didattiche. 

Come Make Ausili, stiamo inoltre lavorando ad una variante accessibile dei suddetti "giocattoli", al fine di presentarli ad Handimatica 2014!

A presto.

martedì 1 luglio 2014

Making things see

Questo è il libro che sto usando come reference per venire a capo del progetto "sistema di puntamento oculare con Kinect".
Finalmente sono arrivato al capitolo dedicato agli skeleton data, ovvero i dati relativi ai punti appartenenti a determinati distretti corporei: testa, collo, spalle, torso ecc...

Non è stato facile arrivare a questo capitolo e riuscire a capirci qulacosa... ma finalmente sembra che questo viaggio si avvii ad una conclusione. 

Gli strumenti e le tecniche presentate in questo libro permettono infatti di progettare sistemi interattivi modulari, ciò significa che il nostro sistema di puntamento potrà godere di diverse configurazioni non necessarimente vincolate all'uso del gaze/eye tracking. Le alternative sono molte e non sempre quelle che sembrano promettere migliori prestazioni risultano poi utilizzabili nel contesto che ci proponiamo di presidiare. 

Non vediamo l'ora di condensare tutte queste settimane di studio (ormai sono circa nove!) in un prototipo utilizzabile, non importa se imperfetto e approssimativo. La frase che più ci ripetiamo in questi giorni è una citazione tratta da un'intervista ad alcuni amici di Fab Lab Torino: "Meglio fatto che perfetto!".

A presto!
Daniele

mercoledì 11 giugno 2014

Ecco i Minirobot!

I giovani makers all'opera.
Alcune foto del Workshop di sabato scorso: "Minirobot. Costruisci e porta a casa il tuo robot!".
Ringraziamo PaLEos per le immagini

















domenica 1 giugno 2014

Puntamento oculare con Kinect


Per realizzare questo ambizioso progetto stiamo utilizzando la libreria Open NI di Processing e abbiamo tratto molte informazioni dal libro "Making things see".

L'uso della lente d'ingrandimento ha permesso di incrementare la risoluzione di Kinect; adesso, usando la "visione a infrarossi", che restituisce un'immagine in scala di grigi con i bordi esaltati, riusciamo tranquillamente a tracciare la pupilla come punto più scuro del distretto oculare. 

Negli ultimi giorni siamo riusciti a tracciare entrambe le pupille, non limitando lo scanning al solo distretto oculare; tali algoritmi vanno però perfezionati perché risultano ancora troppo rigidi rispetto ai possibili movimenti, più o meno involontari, della testa. 

Quando avremo finito di tracciare entrambe le pupille in qualsiasi posizione, conoscendone di fatto le tre coordinate x,y,z, potremo iniziare a ricostruire la direzione dello sguardo dell'utente (gaze tracking), combinando posizione della pupilla, rispetto ad un sistema di riferimento solidale al volto, e posizione della testa.

A presto!

giovedì 22 maggio 2014

Workshop "Minirobot. Costruisci e porta a casa il tuo robot!"

Ha gli occhi dolci, ma con due cavi in più diventa una belva!

Workshop MINIROBOT

Giovedì 29 Maggio, ore 17:00, presso Centro Didattico Paleos di Via Monticelli 1r, Firenze.

15€
Comunicare la propria iscrizione all'indirizzo info@paleos.it
Ogni partecipante, alla fine del workshop, porterà a casa il proprio minirobot!
A presto!

martedì 13 maggio 2014

Power! L'elettricità nelle tue mani


Power on
Power off
Sabato 24 Maggio, presso il Centro Didattico Paleos situato in Via Monticelli 1R, presenteremo il workshop didattico "Power! L'elettricità nelle tue mani" dedicato a bambini e ragazzi.
Attraverso la costruzione di un vero circuito elettrico (come quello rappresentato in foto), scopriremo le proprietà dell'elettricità, inoltre, al termine del workshop, ogni bambino potrà portare a casa il proprio circuito.

Dai 6 ai 12 anni
Costo 15€
Sabato 24/05/2014, 15:30-17:00 circa
Comunicare la propria iscrizione all'indirizzo e-mail info@paleos.it oppure make.ausili@gmail.com

A presto!

lunedì 28 aprile 2014

Modellazione generativa in Processing e stampa 3D



Trovo molto interessante la libreia Modelbuilder per Processing. Tale libreria permette di generare file .stl e permette anche di esportare, sempre in .stl, la mesh ricavata da una scansione 3d fatta con Kinect all'interno di Processing. 

Potendo esportare files .stl, mi sono divertito a modellare/disegnare in modo generativo, ovvero scrivendo direttamente il codice sorgente di un oggetto tridimensionale (sempre in linguaggio Processing). Dato che le mesh devono presentare celle triangolari, occorre modellare descrivendo la superficie dell'oggetto in questione combinando tanti triangoli bidimensionali (un decoupage digitale !). Se non si rispetta tale regola e si intersecano semplicemente tra loro due volumi, non si otterrà un oggetto unitario correttamente stampabile.

La foto qui sopra mostra un cono a base dodecagonale che non si è fuso con il cubo, proprio perché non è stata adeguatamente disegnata (sfruttando il perimetro di triangoli) la giuntura tra i due volumi; ho semplicemente "trafitto" il cubo con un cono cavo...

A presto!

martedì 8 aprile 2014

Il collaudo di Easy VR


Come è già accaduto qualche giorno addietro al nuovo sensore di forza per Paperhub, il collaudo con persone con disabilità motoria è sempre un vero e proprio salto nel buio! 
Il sistema/software di training si è dimostrato troppo "rigido" per poter essere usato con persone che hanno serie difficoltà di articolazione del linguaggio, inoltre lo stress temporale dato da una finestra utile di 5s. per impostare il comando vocale non è tollerabile per il tipo d'uso che propongo in questo blog; sarebbe certamente più comodo poter gestire il training in modalità offline, mediante file audio. Cercherò di aggirare il problema attraverso l'invio del segnale audio (dal PC) all'ingresso microfonico dello shield, anche se, non avendo possibilità di monitoring e non potendo pertanto sapere se il segnale di linea in ingresso presenta un volume troppo alto (presumo di sì...), non scommetterei sulla riuscita del "trucco". Anche se dovesse funzionare, non mi convince del tutto la potenziale usabilità di tale riconoscimento vocale con persone che articolano parole con molta fatica.

P.S
Sono riuscito a far funzionare Easy VR con Arduino Leonardo, in un prossimo post i dettagli...