什么是人機交互
人機交互、人機互動(英文:Human–Computer Interaction或Human–Machine Interaction,簡稱HCI或HMI),是一門研究系統與用戶之間的交互關系的學問。系統可以是各種各樣的機器,也可以是計算機化的系統和軟件。人機交互界面通常是指用戶可見的部分。用戶通過人機交互界面與系統交流,并進行操作。小如收音機的播放按鍵,大至飛機上的儀表板、或是發電廠的控制室。人機交互界面的設計要包含用戶對系統的理解(即心智模型),那是為了系統的可用性或者用戶友好性。
人機交互的概念:
定義1:有關交互式計算機系統設計、評估、實現以及與之相關現象的學科[ACM]
定義2:研究人、計算機以及他們之間相互作用方式的學科,學習人機交互的目的是使計算機技術更好地為人類服務[Alan Dix]
定義3:有關可用性的學習和實踐,是關于理解和構建用戶樂于使用的軟件和技術,并能在使用時發現產品有效性的學科[Carroll]
主要內容:
1、界面設計的方法和過程。即在給定任務和用戶的前提下,設計出最優的界面,使其滿足給定的限制,并對易學性和使用性效率等屬性進行優化。
2、界面實現方法。如軟件工具包和庫函數,以及其他各種高效開發方法等
3、界面分析和評估技術。
4、開發新型界面和交互技術。
5、構建交互相關的描述模型和預測模型
1、 框架是提供理解或定義的一種結構,他能夠幫助人們結構化設計過程,認識設計過程中的主要問題,還有助于定義問題所涉及的領域 2、 執行/評估活動周期EEC: 活動的四個基本組成部分:目標(想做什么)、執行(實現目標必須進行的操作)、客觀因素(執行活動時必須考慮的客觀條件)、評估(用于衡量活動執行的結果語目標之間的差距)
七個階段:建立目標、形成操作意向、明確動作序列、執行動作、感知系統狀態、解釋系統狀態、對照目標評估系統狀態
執行隔閡:用戶為達到目標而制定的動作與系統允許的動作之間的差別 評估隔閡:系統狀態的實際表現與用戶預期之間的差別 3、 擴展EEC框架
(1) 交互式系統的四個組成部分:系統(S)、用戶(U)、輸入(I)、輸出(O)
(2) 其中,輸入和輸出構成了界面
? ? ? ? (3) 執行階段包括三個翻譯過程:
定義:用戶闡述某個目標,然后通過輸入語言進行協調和鏈接 執行:輸入語言被轉換成內核語言,表示系統要執行的操作 表現:系統使用輸出語言吧內核語言的執行結果表示出來
(4) 評估階段的過程
觀察:用戶將輸出與原有的目標進行比較從而評估交互的結果
問答界面:通過詢問用戶一系列問題實現人與計算機的交互(Web問卷是典型的采用問答方式進行組織的應用,應允許用戶方便地取消其中一個界面的選項)
優點:對記憶的要求較低;每個界面具有自解釋性;將任務流程以簡單的線性表示;適合新手用戶。
缺點:要求從用戶端獲得有效輸入;要求用戶熟悉界面控制;糾錯過程可能比較乏味。 隱喻界面:
本質:在用戶已有知識的基礎上建立一組新的知識,實現界面視覺提示和系統功能之間的知覺聯系,進而幫助用戶從新手用戶轉變為專家用戶
優點:直觀生動;無需學習。
缺點:不具有可擴展性;不同用戶對同一事物可能產生不同的聯想;緊緊地將我們的理念和物理世界束縛在一起;尋找恰當的隱喻可能存在困難。
體感交互是人機交互的高級形態
1.人機交互從廣義上講,就是全社會生態系統的智能化識別;從狹義上講,3D顯示器、、視網膜顯示器、動作識別、仿生隱形眼鏡、第六感技術和體感系統等都是人機交互在不同階段的發展形態。
2.第六感技術:是一個可佩戴的姿態交互系統,將用戶周圍的事物,與互聯網無縫連接在一起,用戶可以通過自然手勢與電子設備進行輸入輸出交互。
1)應用場景一,第六感技術將以手機系統作為使用平臺,在手掌上投影的“鍵盤”可以根據實際的需要變化,輸入內容和顯示內容都可以;
2)應用場景二,第六感技術可以從海量的信息資訊中收集識別讀物上的信息,并通過關鍵字可以在網絡上搜索相關內容,讓你全方位的了解信息。
圖表2:通過皮膚觸控使用手機
圖表3:便利的媒體資訊
3.體感技術:一種可以直接使用肢體動作與周邊的裝置或環境互動,而無需使用任何復雜的控制設備。如圖5所示,肢體在空中所做動作都會被體感傳感設備感知,并通過數據處理和算法得知人體具體動作軌跡并反映在游戲中,通過體感設備無需接觸即可與虛擬游戲進行互動。
1)體感控制設備的概念最早來源于日本任天堂公司于2006年11月推出的Wii家用游戲機,此款設備包含兩部分硬件:放在電視機前的傳感器和握在手中的控制器Wiiremote。通過Wiiremote頂端配置的CMOS鏡頭探測傳感器兩側的紅外線發光源來確定自身運動軌跡,并借助自帶陀螺儀測算加速度,實現體感控制。
2)自Wii推出半年后便占據游戲機市場銷量第一的寶座,這也使得索尼和微軟深切感受到體感技術的革命性,兩者分別在2010年9月和11月先后推出自主研發的兩款體感游戲設備PSmove和Kinect,其中Kinect是目前市場上效果最佳的體感設備,其硬件設備主要包括紅外投影機、用于臉部識別和全身定位的攝像頭、用于語音解釋的麥克風和空間定位的深度傳感器。
3)Kinect上市后短短2個月便售出800萬臺,超過了蘋果iPhone、iPad同等上市時間內的銷售數字,截至去年1月Kinect累計售出1800萬臺。
圖表4:Kinect體感游戲示意
圖表5:空間操作示意
體感技術的顛覆者:LeapMotion簡單硬件卻有全新交互體驗
美國Leap公司開發的面向WindowsPC及Mac平臺的體感設備LeapMotion技術更為先進,在微軟Kinect類似工作機理的基礎上將性能提高到極致:精確度提高到0.01毫米以內,時間延遲只有5-10毫秒,用戶絲毫覺察不出這極短的延遲,體驗到的只有動作同步的流暢。
LeapMotion體感控制器包括一個類似U盤的可連接電腦的傳感器和一套復雜的軟件平臺。工作原理主要是采用紅外LED照亮傳感器上方的一片區域(約25-600毫米約0.23立方米空間),此時手部在覆蓋區域的動作將被模擬人眼的雙攝像頭捕捉,將手部位置的實時數據通過高速USB通訊芯片反饋給終端,從而分析出手勢的變化并反應在游戲操作中。
本地系統包括幾乎所有一切具備獨立運算能力的設備,包括PC、筆記本電腦、平板電腦、車載電子設備、智能手機,因而LeapMotion應用領域也不僅限于游戲、醫療,也可以是金融、工程、虛擬雕刻、全息投影等領域。
圖表6:LeapMotion體感控制器
與智能全息相結合,隔空操控不是夢
與觸摸屏相比,LeapMotion可以支持更優越的遙感控制體驗,價格方面,普通筆記本觸摸屏成本在300-400元,而LeapMotion初始售價僅需要500元,考慮到LeapMotion更人性化的體感控制方式,消費者需要付出的額外成本并不高。超高的性價比和完善的生態系統使得LeapMotion競爭優勢明顯,中性預計未來將有望在PC、筆記本和電視上成為標配,理想銷量將達到數億臺量級。
與智能終端的結合只是LeapMotion體感革命的開始,其真正劃時代的跨躍在于嵌入全息投影的應用,屆時隔空打字、空間操作、虛擬雕塑、模擬手術等全新概念將不僅停留在想象之中。
圖表7:隔空操控不是夢
人機交互的發展
59年美國學者B.Shackel從人在操縱計算機時如何才能減輕疲勞出發,提出了被認為是人機界面的第一篇文獻的關于計算機控制臺設計的人機工程學的論文。1960年,Liklider JCK首次提出人機緊密共棲(Human-Computer Close Symbiosis)的概念,被視為人機界面學的啟蒙觀點。1969年在英國劍橋大學召開了第一次人機系統國際大會,同年第一份專業雜志國際人機研究(IJMMS)創刊。可以說,1969年是人機界面學發展史的里程碑。
在1970年成立了兩個HCI研究中心:一個是英國的Loughbocough大學的HUSAT研究中心,另一個是美國Xerox公司的Palo Alto研究中心。
1970年到1973年出版了四本與計算機相關的人機工程學專著,為人機交互界面的發展指明了方向。
20世紀80年代初期,學術界相繼出版了六本專著,對最新的人機交互研究成果進行了總結。人機交互學科逐漸形成了自己的理論體系和實踐范疇的架構。理論體系方面,從人機工程學獨立出來,更加強調認知心理學以及行為學和社會學的某些人文科學的理論指導;實踐范疇方面,從人機界面(人機接口)拓延開來,強調計算機對于人的反饋交互作用。人機界面一詞被人機交互所取代。HCI中的I,也由Interface(界面/接口)變成了Interaction(交互)。
20世紀90年代后期以來,隨著高速處理芯片,多媒體技術和Internet Web技術的迅速發展和普及,人機交互的研究重點放在了智能化交互,多模態(多通道)-多媒體交互,虛擬交互以及人機協同交互等方面,也就是放在以人為在中心的人機交互技術方面。
人機交互的發展歷史,是從人適應計算機到計算機不斷地適應人的發展史,人機交互的發展經歷了幾個階段:早期的手工作業階段、作業控制語言及交互命令語言階段、圖形用戶界面(GUI)階段、網絡用戶界面的出現、多通道、多媒體的智能人機交互階段。
評論
查看更多