1
本文作者: 吳德新 | 2014-11-08 04:02 |
MIT Media Lab的Daniel Leithinger坐在WE大會的采訪間里,他的兩手不停地把玩著一部剛剛上市不久的Moto X二代。在整個采訪中他時不時地把現在的手機稱為“boring”。而當他試圖打開Google準備給記者們解釋一個名詞時,“...doesn’t seem work.” 于是整個屋子的記者都笑了。
對于墻內的大多數,Daniel這個老外名字我們并不熟悉。Daniel是MIT的交互設計師,今年MIT Media Lab推出一款3D立體顯示inFORM,便是他的作品。在現有成熟的視覺交互之外,Daniel極力推崇觸覺交互。
舉個例子,inFORM本身便是一個將視頻、圖片轉化為針狀有型界面的裝置。
inFORM無論在過去還是現在都像是一個新奇的玩具,所以在場的記者們都問這種技術未來能應用在哪里。
Daniel的回答是,everywhere:
我們現在被各式各樣的屏幕所包圍,PC、手機、iPad。任何的信息都是圖形化的、視覺的。而我們現在的嘗試,就是試圖脫離單一的視覺交互,讓人們可以真實觸摸到信息,甚至直接對信息進行操作。
他還舉了幾個例子:比如用一種流體材料把inFORM的技術放到手機上,當手機提示“確認”時,屏幕上就會凸起出一個“確認”按鈕,而不再是單一平面的。inFORM的技術可以用來改造空間,比如未來你只有一個十幾平米的房子,前一分鐘這里是個臥室,下一分鐘整個空間就可以變形成一個客廳。
互聯網終端(device)被創(chuàng)造出來的初衷是為了傳遞信息,而圖形、文字這些視覺化的方式是信息傳遞最高效的路徑。但當我們超越了追求信息效率的階段,下一步會是什么?Daniel的答案是將線上虛擬的信息世界還原為線下真實的物理世界。而現在,在追求信息效率上,可以說我們人類能達到的技術已經相當成熟。
所以下一步我們需要什么?
捕捉、語匯、載體、網絡...
WE大會的另一位觸覺交互創(chuàng)新者Rajinder Sodhi在回答上段末的那個問題時,給到雷鋒網的答案是語匯,也就是兩個世界相互轉化的編碼.
跟inFORM的交互方式不太同的是,Rajinder主導的技術借用了空氣而非針狀的小方塊,這項技術叫做AIREAL。比如,當用戶玩一個足球游戲時,AIREAL推送出來的空氣可以模擬守門員撲球時手掌的感受,配合Kinect和大屏幕顯示,用戶的感官越發(fā)趨于真實。
無論inFORM還是AIREAL,它們都是未來的內容輸出設備,那么對應的理想輸入方式是什么?
Raj說他們在開發(fā)AIREAL的時候做了大量反復的實驗,在人群中測試一個石頭的觸感、砂子的觸感、蝴蝶停在皮膚上的觸感等等,然后通過調節(jié)空氣的推送噴射來模擬這些觸感,而產生這些感覺的代碼便是兩個世界交互的語匯。
除了語匯,未來的觸覺交互還需要更豐富的信息捕捉技術(比如從2D進化到3D捕捉的攝像頭),更逼真的感官載體(超越inFORM和AIREAL的裝置和材料),低延遲的網絡等等。
Daniel和Rajinder所為之努力的方向是將信息盡可能還原為真實,而交互領域另一個著名的產品Oculus則是將現實盡可能保真地轉化為虛擬。Daniel和Rajinder都認為當這兩個方向打通的時候,就沒有真實和虛擬世界之分了——或許是未來的黑客帝國。
觸覺交互僅僅時WE 2014的一角。像Daniel和Rajinder所在的機構和企業(yè)還未成為商業(yè)上非常成功的案例。WE 2013的主題時Way to Evolve,今年時Nothing but the Future。騰訊在這兩年的大會上甚至有意避免了商業(yè)上非常成功的公司。撇開中國創(chuàng)業(yè)圈今年最愛聽的商業(yè)故事,WE 2014我們可以期待一點——something from the future。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。