Le NUI secondo Microsoft, uno sguardo agli ambienti interattivi del futuro

Il programma del Microsoft Insight prevedeva un pomeriggio dedicato al campo delle NUI (Natural User Interfaces), che mi ha messo letteralmente KO: avete presente questo filmato?

httpv://www.youtube.com/watch?v=8Ff7SzP4gfg

Ecco, se vi dicessi che molte di quelle cose le ho viste dal vero, seppur a livello prototipale? Un po’ e’ la mia indole, certo, ma anche gli altri sono rimasti ampiamente a bocca aperta ed eravamo tutti concordi su una cosa: vederle in un video rende solo in piccola parte rispetto allo sperimentarle, toccarle con mano, interagirci!

Geniali i device con schermi tattili posteriori: poter eseguire delle semplici gesture senza coprire lo schermo principale e’ utilissimo, seppur per esigenze di consultazione dell’informazione piu’ che di interazione con essa. Scrivanie fatte da schermi, dove ogni superficie si adatta a compiti specifici in base al contesto. Controller che si comandano con il palato o con gli occhi, mettendo in grado anche chi ha particolari problemi di poter fare operazioni complesse fino a prima impensabili per loro. E poi oggetti che massimizzano l’area interattiva, anche se device dual-screen ne esistono gia’ oggi.

Ma la cosa che piu’ mi ha colpito e’ stata “Microsoft Home”, la casa del futuro. Riporto giusto qualche scenario, difficile da rendere a parole: grazie ai tag RFID nelle confezioni dei prodotti alimentari il sistema conosce cosa si ha in casa, elabora per noi delle ricette ed un proiettore miniaturizzato ci mostra direttamente sul tavolo della cucina le alternative per la cena, con tanto di ricette passo passo per preparare il piatto scelto, li’, di lato a noi che lo stiamo preparando, il tutto comandato vocalmente. Oppure le pareti della camera dei ragazzi che non hanno decorazioni convenzionali, ma ci pensano dei proiettori ad usare i muri come superfici di interazione, ed un Kinect a leggere i nostri gesti: ecco allora che agitando le mani in aria possiamo scorrere sulla parete la nostra lista di album preferiti e selezionare la playlist da ascoltare, controllare i social network mentre siamo lunghi sul letto, spostare qua e la le foto che vogliamo vedere, materializzare un quadro che in realta’ e’ una webcam verso posti lontani, in continuo aggiornamento. Ottimo connubio tra realta’ e virtuale. E quando ho provato io a chiedere al sistema di fare qualcosa, mi ha risposto che la mia voce non era autorizzata. Il salone diventa il luogo per l’intrattenimento e le visite interattive: grazie a Surface collegato con il televisore principale, ho compiuto la piu’ immersiva visita virtuale in un museo che mai avessi fatto: interagire con gli elementi presenti, guardali intorno a me, avere maggiori dettagli e collegamenti toccandoli, ruotandoli, spostandoli, combinandoli… Ecco foto e filmati per capire meglio di cosa sto parlando, assieme al report di qualcuno che ha fatto il nostro stesso giro.

Insomma, sparito ogni tipo di mouse, si interagisce con il sistema mediante tocco, gesture e voce. Tre strade, non a mutua esclusione, a cui ci dovremo abituare dato che il nostro futuro di comunicazione con le macchine sara’ basato su quelle. Principali tecnologie utilizzate: proiettori, anche miniaturizzati, superfici tattili e il Kinect a profusione, ben nascosti tra le pareti.

Altra considerazione riguarda il fatto che tutto quello che ho visto aveva interfacce specifiche allo scopo, non c’erano pattern grafici comuni che poi ritrovavo in altri prodotti (per interderci, la barra dei menu’, la notification area, il menu’ contestuale ecc). Era tutto completamente focalizzato e ottimizzato per lo specifico task, pixel su pixel potrei azzardare, per otterene il massimo dall’interazione con esso. Approccio importante, secondo me, che conferma come, sempre piu’ di ora, un buon programma non lo fa solo un buon codice, ma anche lo studio di un buon percorso di UX e una buona interfaccia. Insomma, per chi ancora non l’avesse capito, realizzare un applicazione e’ sempre di piu’ un lavoro multidisciplinare e molto piu’ complesso di quello che puo’ sembrare all’utente finale. Il mobile ce lo ha insegnato, dove i limiti imposti dalla fisicita’ della piattaforma hanno liberato la creativita’ e hanno portato finalmente alla morte dell’approccio: “Ehi programmatore, mi serve questa nuova funzione, metti un bottone qui, tanto c’e’ spazio, oppure un nuovo menu’ li sotto”. Ora, consapevolmente, dobbiamo evolvere e abbracciare questo approccio anche per il desktop e le “non-mobile, non-desktop, non-web” applicazioni.

Chiaro che senza potenti sistemi di elaborazione che agiscono dietro le quinte, cloud, dati centralizzati, sensori a profusione, tecnologie di elaborazione e predizione ancora sperimentali non si sarebbe riuscito ad ottenere niente di tutto quello che ho visto: la solita punta dell’iceberg percepita insomma, mentre sotto c’e’ tanto altro con cui bisogna fare i conti.

Qualche dubbio rimane sul costo energetico e l’impatto ambientale (produzione, manutenzione e smaltimento) di tutti questi nuovi oggetti intelligenti. Inoltre saremo immersi giorno e notte in reti wireless sempre piu’ presenti e massicce, sempre piu’ sovraccariche di dati. Poi potremmo anche parlare dei costi per averle: oggi con un po’ di legno ti fai un tavolino e avere un pc e una connessione a banda larga e’ tutto quello che serve per vivere la rivoluzione tecnologica (seppur con qualche ristrettezza, ma senza grosse limitazioni). Domani, invece, non avere in casa certe tecnologie potrebbe significare l’esclusione da determinati ambiti  di vita sociale. Gia’ ora se i bambini non hanno almeno una console in casa, difficilmente potranno invitare i loro amichetti di classe a fare i compiti da loro.

Tempi per vedere realizzata la casa del futuro su larga scala? Beh, il tipo ci ha detto 5-10 anni: forse e’ un range di tempo attendibile, forse e’ un metanumero che significa “prima o poi”. In ogni caso, niente mi e’ sembrato cosi’ indispensabile, ma molto mi ha dato l’impressione di essere utile e piacevole. Insomma, provare per credere! ;)

Dedico il tap #clapclapmucche a Ilaria e Michele, loro sanno cosa significa…

Leave a Reply