La sperimentazione avviata in relazione al progetto Alghero PLAY riguarda la possibilità di ‘potenziare’ la realtà con elementi virtuali, visualizzatili su smart-device attraverso una serie di filtri interattivi (la piattaforma prescelta è Instagram). In questo modo gli utenti diventano in qualche misura co-autori di brevi sequenze multimediali, condivisibili on-line. I contributi così prodotti possono dunque contribuire a far entrare le installazioni del progetto nel circuito ‘social’.
L’idea è verificare la possibilità di incorporare l’immaginario tipicamente catturato dagli utenti, nelle loro storie, per introdurre interattività – gli utenti diventano infatti attivi, lasciandosi coinvolgere da un gioco visuale – nelle immagini attraverso animazioni ed effetti personabilizzabili.
In quest’ottica sono stati realizzati filtri Instagram, che gli utenti possono liberamente impiegare per trattare le loro fotografie. Tramite questi, è consentito agli utenti di manipolare elementi grafici realizzati per l'immagine coordinata del progetto Med Gaims, che però possono essere rielaborati, e combinati direttamente con immagini ‘catturate’, per creare nuove composizioni visive – condivisibili sui social network – coerenti con l'immaginario del progetto.
I filtri esplorano diversi approcci/modalità di interazione, nell’uso delle tecnologia multimediale nei dispositivi i portatili:
Il primo dei filtri richiama una gestualità tipica delle spiagge – scuotere il telo da bagno per liberarlo dalla sabbia – azione che viene integrata interattivamente: a partire da una immagine catturata dall’utente, visualizzata sullo schermo del dispositivo una texture che riporta la scritta “Alghero” tende a riempire l’immagine, sovrapponendovisi con un andamento ad onde concentriche e continue.
Scuotendo il dispositivo (come già il telo da bagno) l’utente può, ripulire immagine, facendo ‘cadere le lettere’, che finiscono nella parte inferiore dello schermo.
Il terzo filtro, il più astratto dei tre, permette interagire con gli elementi grafici e realizzare nuove composizioni visive. Si basa su una formula – alla base del successo dell'utilizzo di questo tipo di filtri in contesto ‘selfie’– chiamata ‘faceMask’. Un sistema di imaging incorporato nel software riconosce la forma del viso inquadrato, permettendo di giustapporvi elementi grafici, 2 e 3D.
Il sistema rende possibile interpretare le espressioni facciali, di occhi, naso, bocca e l movimento dei capelli, e se opportunamente programmato, può risponde in tempo reale alla gestualità dell’utente che ‘vi si specchia’ e interagisce con l’immagine attraverso il movimento della bocca,
La soluzione che abbiamo sviluppato sfrutta in modo diverso le immagini provenienti dalle fotocamere (anteriore e posteriore) normalmente presenti sui dispositivi smart. La prima fotocamera, riconosce ed isola il viso dell'utente; ad occhi e bocca, ri-mappandolo su forme scherzose che riprendono la forma/sagoma del volto in modo astratto, creandone una sorta di maschera scherzosa.
La camera posteriore permette all’utente di riprendere e trattare paesaggi sintetizzandoli e generando – con una tecnica di ‘convoluzione/kernel’ basata su una una matrice 3x3, un effetto disegno fatto di soli contorni.
Il filtro consente tre configurazioni base dell'immagine di sfondo, sfocatura, affilatura, goffratura e riconoscimento dei contorni, modificabili cliccando in qualsiasi punto dello schermo.
Una sperimentazione avviata sulla possibilità di ‘potenziare’ la realtà con elementi virtuali, visualizzatili su smart-device attraverso una serie di filtri interattivi.
Un effetto di animazione pre-cinematografica che si ottiene movendo un supporto trasparente a strisce verticali su una immagine interlacciata dei fotogrammi.
Un cortometraggio realizzato da Paola Dore come elemento integrativo per una mostra sul design italiano progettata per la Tianjin Design Week.