多点触控定义
多点触控 (又称多重触控、多点感应、多重感应,英译为Multitouch或Multi-Touch)是采用人机交互技术与硬件设备共同实现的技术,能在没有传统输入设备(如:鼠标、键盘等。)下进行计算机的人机交互操作。多点触摸技术,能构成一个触摸屏(屏幕,桌面,墙壁等)或触控板,都能够同时接受来自屏幕上多个点进行计算机的人机交互操作。
多点触摸可以理解为一个屏幕多点操作。多点触摸不但是两个点或者几个点同时应用到屏幕上这么一点点便利,由于是多点触摸,所以他能感应到手指滑动的快慢以及力度(力度用触摸点的多少转换来实现),从而操作系统应用起来更加人性化。
多点触控意即一些让电脑使用者透过数只手指达至图像应用控制的输入技术。
要使用多点触控技术,装置必需配备触屏或触摸板,同时需装载可辨认多于一点同时触碰的软件,相较之下,标准的触控技术只能辨认一点,是其之间最大的分别。 能让电脑感受到物理上的触碰的事物包括:热力、指压、高速摄影机、红外线、光学感应、电阻改变、超声波接收器,微音器、雷射波幅感应器及影子感应器等。
现时已有若干多点触控的应用及计划。有些目的是令输入更个性化(例如:iPhone、iPod touch、MacBook系列、HTC Magic、HTC Hero、HTC Desire、Nexus One、Xperia及HTC Diamond),不过这种技术最主的目的是带来人机互动新时代。
多点触控发展
多点触控技术始于1982年由多伦多大学发明的感应食指指压的多点触控屏幕。同年贝尔实验室发表了首份探讨触控技术的学术文献。
1984年,贝尔实验室研制出一种能够以多于一只手控制改变画面的触屏。同时上述于多伦多大学的一组开发人员终止了相关硬件技术的研发,把研发方向转移至软件及界面上。同年,微软开始研究该领域。
1991年Pierre Wellner对多点触控 “数码服务台”,即支持多手指的提案,研制
多点触控出一种名为数码桌面的触屏技术,容许使用者同时以多个指头触控及拉动触屏内的影像。
1999年,“约翰埃利亚斯”和“鲁尼韦斯特曼”生产了的多点触控产品包括iGesture板和多点触控键盘。在2005年,被苹果电脑收购。
2006年,纽约大学的Jefferson Y Han教授领导研发的新型触摸屏可由双手同时操作,并且支持多人同时操作。利用该技术,Jefferson Y Han在36英寸×27英寸大小的屏幕上,同时利用多只手指,在屏幕上画出了好几根线条。与普通的触摸屏技术所不同的是,它同时可以有多个触摸热点得到响应,而且响应时间非常短——小于0.1秒。
2007年,“苹果”及“微软”分别发表了应用多点触控技术的产品及计划,令该技术开始进入主流的应用。