- 浏览: 68179 次
- 性别:
- 来自: 长沙
文章分类
最新评论
-
sys1121:
sys1121 写道为什么我这样获取,img图片没变呢..调试 ...
Android WebView调用Js设置byte[]给Img src -
sys1121:
为什么我这样获取,img图片没变呢..调试发现已经调用JS方法 ...
Android WebView调用Js设置byte[]给Img src -
luciferdevil:
iwangxiaodong 写道这样会不会更简单(更多WebV ...
Android WebView调用Js设置byte[]给Img src -
iwangxiaodong:
这样会不会更简单(更多WebView技巧):webview.l ...
Android WebView调用Js设置byte[]给Img src
简述Android触摸屏手势识别
很多时候,利用触摸屏的Fling、Scroll等Gesture(手势)操作来操作会使得应用程序的用户体验大大提升,比如用Scroll手势在 浏览器中滚屏,用Fling在阅读器中翻页等。在Android系统中,手势的识别是通过 GestureDetector.OnGestureListener接口来实现的,不过William翻遍了Android的官方文档也没有找到一个相 关的例子,API Demo中的TouchPaint也仅仅是提到了onTouch事件的处理,没有涉及到手势。Android Developer讨论组里也有不少人有和我类似的问题,结合他们提到的方法和我所做的实验,我将给大家简单讲述一下Android中手势识别的实现。
我们先来明确一些概念,首先,Android的事件处理机制是基于Listener(监听器)来实现的,比我们今天所说的触摸屏相关的事件,就是 通 过onTouchListener。其次,所有View的子类都可以通过setOnTouchListener()、 setOnKeyListener()等方法来添加对某一类事件的监听器。第三,Listener一般会以Interface(接口)的方式来提供,其中 包含一个或多个abstract(抽象)方法,我们需要实现这些方法来完成onTouch()、onKey()等等的操作。这样,当我们给某个view设 置了事件Listener,并实现了其中的抽象方法以后,程序便可以在特定的事件被dispatch到该view的时候,通过callbakc函数给予适 当的响应。
看一个简单的例子,就用最简单的TextView来说明(事实上和ADT中生成的skeleton没有什么区别)。
public class GestureTest extends Activity implements OnTouchListener{
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
// init TextView
TextView tv = (TextView) findViewById(R.id.page);
// set OnTouchListener on TextView
tv.setOnTouchListener(this);
// show some text
tv.setText(R.string.text);
}
@Override
public boolean onTouch(View v, MotionEvent event) {
Toast.makeText(this, "onTouch", Toast.LENGTH_SHORT).show();
return false;
}
我们给TextView的实例tv设定了一个onTouchListener,因为GestureTest类实现了 OnTouchListener 接口,所以简单的给一个this作为参数即可。onTouch方法则是实现了OnTouchListener中的抽象方法,我们只要在这里添加逻辑代码即 可在用户触摸屏幕时做出响应,就像我们这里所做的——打出一个提示信息。
这里,我们可以通过MotionEvent的getAction()方法来获取Touch事件的类型,包括 ACTION_DOWN, ACTION_MOVE, ACTION_UP, 和ACTION_CANCEL。ACTION_DOWN是指按下触摸屏,ACTION_MOVE是指按下触摸屏后移动受力点,ACTION_UP则是指松 开触摸屏,ACTION_CANCEL不会由用户直接触发(所以不在今天的讨论范围,请参考 ViewGroup.onInterceptTouchEvent(MotionEvent))。借助对于用户不同操作的判断,结合getRawX()、 getRawY()、getX()和getY()等方法来获取坐标后,我们可以实现诸如拖动某一个按钮,拖动滚动条等功能。待机可以看看 MotionEvent类的文档,另外也可以看考TouchPaint例子。
回到今天所要说的重点,当我们捕捉到Touch操作的时候,如何识别出用户的Gesture?这里我们需要 GestureDetector.OnGestureListener接口的帮助,于是我们的GestureTest类就变成了这个样子。
Java 代码
public class GestureTest extends Activity implements OnTouchListener,
OnGestureListener {
....
}
随后,在onTouch()方法中,我们调用GestureDetector的onTouchEvent()方法,将捕捉到的 MotionEvent交给 GestureDetector 来分析是否有合适的callback函数来处理用户的手势。
Java 代码
@Override
public boolean onTouch(View v, MotionEvent event) {
// OnGestureListener will analyzes the given motion event
return mGestureDetector.onTouchEvent(event);
}
接下来,我们实现了以下6个抽象方法,其中最有用的当然是onFling()、onScroll()和onLongPress()了。我已经把每 一个方法代表的手势的意思写在了注释里,大家看一下就明白了。
// 用户轻触触摸屏,由1个MotionEvent ACTION_DOWN触发
@Override
public boolean onDown(MotionEvent e) {
// TODO Auto-generated method stub
Toast.makeText(this, "onDown", Toast.LENGTH_SHORT).show();
return false;
}
// 用户轻触触摸屏,尚未松开或拖动,由一个1个MotionEvent ACTION_DOWN触发
// 注意和onDown()的区别,强调的是没有松开或者拖动的状态
@Override
public void onShowPress(MotionEvent e) {
// TODO Auto-generated method stub
}
// 用户(轻触触摸屏后)松开,由一个1个MotionEvent ACTION_UP触发
Java 代码
@Override
public boolean onSingleTapUp(MotionEvent e) {
// TODO Auto-generated method stub
return false;
}
// 用户按下触摸屏、快速移动后松开,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE, 1个ACTION_UP触发
@Override
public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
float velocityY) {
// TODO Auto-generated method stub
return false;
}
// 用户长按触摸屏,由多个MotionEvent ACTION_DOWN触发
@Override
public void onLongPress(MotionEvent e) {
// TODO Auto-generated method stub
}
// 用户按下触摸屏,并拖动,由1个MotionEvent ACTION_DOWN, 多个 ACTION_MOVE触发
@Override
public boolean onScroll(MotionEvent e1, MotionEvent e2, float distanceX,
float distanceY) {
// TODO Auto-generated method stub
return false;
}
我们来试着做一个onFling()事件的处理吧,onFling()方法中每一个参数的意义我写在注释中了,需要注意的是Fling事件的处理 代 码中,除了第一个触发Fling的ACTION_DOWN和最后一个ACTION_MOVE中包含的坐标等信息外,我们还可以根据用户在X轴或者Y轴上的 移动速度作为条件。比如下面的代码中我们就在用户移动超过100个像素,且X轴上每秒的移动速度大于200像素时才进行处理。
@Override
public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
float velocityY) {
// 参数解释:
// e1:第1个ACTION_DOWN MotionEvent
// e2:最后一个ACTION_MOVE MotionEvent
// velocityX:X轴上的移动速度,像素/秒
// velocityY:Y轴上的移动速度,像素/秒
// 触发条件 :
// X轴的坐标位移大于FLING_MIN_DISTANCE,且移动速度大于 FLING_MIN_VELOCITY个像素/秒
if (e1.getX() - e2.getX() > FLING_MIN_DISTANCE
&& Math.abs(velocityX) > FLING_MIN_VELOCITY) {
// Fling left
Toast.makeText(this, "Fling Left", Toast.LENGTH_SHORT).show();
} else if (e2.getX() - e1.getX() > FLING_MIN_DISTANCE
&& Math.abs(velocityX) > FLING_MIN_VELOCITY) {
// Fling right
Toast.makeText(this, "Fling Right", Toast.LENGTH_SHORT).show();
}
return false;
}
问题是,这个时候如果我们尝试去运行程序,你会发现我们根本得不到想要的结果,跟踪代码的执行的会发现onFling()事件一直就没有被捕捉 到。这正是一开始困扰我的问题,这到底是为什么呢?
我在讨论组的Gesture detection这个帖子里找到了答案,即我们需要在onCreate中tv.setOnTouchListener(this);之后添加如下一句代 码。
tv.setLongClickable(true);
只有这样,view才能够处理不同于Tap(轻触)的hold(即ACTION_MOVE,或者多个ACTION_DOWN),我们同样可以通过 layout定义中的android:longClickable来做到这一点。
这次遇到的这个问题和上次MapView中setOnKeyListener遇到的问题挺类似,其实都是对SDK的了解不够全面,遇到了一次记住 了就好。不过话说回来,Google在文档方面确实需要加强了,起码可以在OnGestureListener中说明需要满足那些条件才可以保证手势被正 确识别。
很多时候,利用触摸屏的Fling、Scroll等Gesture(手势)操作来操作会使得应用程序的用户体验大大提升,比如用Scroll手势在 浏览器中滚屏,用Fling在阅读器中翻页等。在Android系统中,手势的识别是通过 GestureDetector.OnGestureListener接口来实现的,不过William翻遍了Android的官方文档也没有找到一个相 关的例子,API Demo中的TouchPaint也仅仅是提到了onTouch事件的处理,没有涉及到手势。Android Developer讨论组里也有不少人有和我类似的问题,结合他们提到的方法和我所做的实验,我将给大家简单讲述一下Android中手势识别的实现。
我们先来明确一些概念,首先,Android的事件处理机制是基于Listener(监听器)来实现的,比我们今天所说的触摸屏相关的事件,就是 通 过onTouchListener。其次,所有View的子类都可以通过setOnTouchListener()、 setOnKeyListener()等方法来添加对某一类事件的监听器。第三,Listener一般会以Interface(接口)的方式来提供,其中 包含一个或多个abstract(抽象)方法,我们需要实现这些方法来完成onTouch()、onKey()等等的操作。这样,当我们给某个view设 置了事件Listener,并实现了其中的抽象方法以后,程序便可以在特定的事件被dispatch到该view的时候,通过callbakc函数给予适 当的响应。
看一个简单的例子,就用最简单的TextView来说明(事实上和ADT中生成的skeleton没有什么区别)。
public class GestureTest extends Activity implements OnTouchListener{
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
// init TextView
TextView tv = (TextView) findViewById(R.id.page);
// set OnTouchListener on TextView
tv.setOnTouchListener(this);
// show some text
tv.setText(R.string.text);
}
@Override
public boolean onTouch(View v, MotionEvent event) {
Toast.makeText(this, "onTouch", Toast.LENGTH_SHORT).show();
return false;
}
我们给TextView的实例tv设定了一个onTouchListener,因为GestureTest类实现了 OnTouchListener 接口,所以简单的给一个this作为参数即可。onTouch方法则是实现了OnTouchListener中的抽象方法,我们只要在这里添加逻辑代码即 可在用户触摸屏幕时做出响应,就像我们这里所做的——打出一个提示信息。
这里,我们可以通过MotionEvent的getAction()方法来获取Touch事件的类型,包括 ACTION_DOWN, ACTION_MOVE, ACTION_UP, 和ACTION_CANCEL。ACTION_DOWN是指按下触摸屏,ACTION_MOVE是指按下触摸屏后移动受力点,ACTION_UP则是指松 开触摸屏,ACTION_CANCEL不会由用户直接触发(所以不在今天的讨论范围,请参考 ViewGroup.onInterceptTouchEvent(MotionEvent))。借助对于用户不同操作的判断,结合getRawX()、 getRawY()、getX()和getY()等方法来获取坐标后,我们可以实现诸如拖动某一个按钮,拖动滚动条等功能。待机可以看看 MotionEvent类的文档,另外也可以看考TouchPaint例子。
回到今天所要说的重点,当我们捕捉到Touch操作的时候,如何识别出用户的Gesture?这里我们需要 GestureDetector.OnGestureListener接口的帮助,于是我们的GestureTest类就变成了这个样子。
Java 代码
public class GestureTest extends Activity implements OnTouchListener,
OnGestureListener {
....
}
随后,在onTouch()方法中,我们调用GestureDetector的onTouchEvent()方法,将捕捉到的 MotionEvent交给 GestureDetector 来分析是否有合适的callback函数来处理用户的手势。
Java 代码
@Override
public boolean onTouch(View v, MotionEvent event) {
// OnGestureListener will analyzes the given motion event
return mGestureDetector.onTouchEvent(event);
}
接下来,我们实现了以下6个抽象方法,其中最有用的当然是onFling()、onScroll()和onLongPress()了。我已经把每 一个方法代表的手势的意思写在了注释里,大家看一下就明白了。
// 用户轻触触摸屏,由1个MotionEvent ACTION_DOWN触发
@Override
public boolean onDown(MotionEvent e) {
// TODO Auto-generated method stub
Toast.makeText(this, "onDown", Toast.LENGTH_SHORT).show();
return false;
}
// 用户轻触触摸屏,尚未松开或拖动,由一个1个MotionEvent ACTION_DOWN触发
// 注意和onDown()的区别,强调的是没有松开或者拖动的状态
@Override
public void onShowPress(MotionEvent e) {
// TODO Auto-generated method stub
}
// 用户(轻触触摸屏后)松开,由一个1个MotionEvent ACTION_UP触发
Java 代码
@Override
public boolean onSingleTapUp(MotionEvent e) {
// TODO Auto-generated method stub
return false;
}
// 用户按下触摸屏、快速移动后松开,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE, 1个ACTION_UP触发
@Override
public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
float velocityY) {
// TODO Auto-generated method stub
return false;
}
// 用户长按触摸屏,由多个MotionEvent ACTION_DOWN触发
@Override
public void onLongPress(MotionEvent e) {
// TODO Auto-generated method stub
}
// 用户按下触摸屏,并拖动,由1个MotionEvent ACTION_DOWN, 多个 ACTION_MOVE触发
@Override
public boolean onScroll(MotionEvent e1, MotionEvent e2, float distanceX,
float distanceY) {
// TODO Auto-generated method stub
return false;
}
我们来试着做一个onFling()事件的处理吧,onFling()方法中每一个参数的意义我写在注释中了,需要注意的是Fling事件的处理 代 码中,除了第一个触发Fling的ACTION_DOWN和最后一个ACTION_MOVE中包含的坐标等信息外,我们还可以根据用户在X轴或者Y轴上的 移动速度作为条件。比如下面的代码中我们就在用户移动超过100个像素,且X轴上每秒的移动速度大于200像素时才进行处理。
@Override
public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
float velocityY) {
// 参数解释:
// e1:第1个ACTION_DOWN MotionEvent
// e2:最后一个ACTION_MOVE MotionEvent
// velocityX:X轴上的移动速度,像素/秒
// velocityY:Y轴上的移动速度,像素/秒
// 触发条件 :
// X轴的坐标位移大于FLING_MIN_DISTANCE,且移动速度大于 FLING_MIN_VELOCITY个像素/秒
if (e1.getX() - e2.getX() > FLING_MIN_DISTANCE
&& Math.abs(velocityX) > FLING_MIN_VELOCITY) {
// Fling left
Toast.makeText(this, "Fling Left", Toast.LENGTH_SHORT).show();
} else if (e2.getX() - e1.getX() > FLING_MIN_DISTANCE
&& Math.abs(velocityX) > FLING_MIN_VELOCITY) {
// Fling right
Toast.makeText(this, "Fling Right", Toast.LENGTH_SHORT).show();
}
return false;
}
问题是,这个时候如果我们尝试去运行程序,你会发现我们根本得不到想要的结果,跟踪代码的执行的会发现onFling()事件一直就没有被捕捉 到。这正是一开始困扰我的问题,这到底是为什么呢?
我在讨论组的Gesture detection这个帖子里找到了答案,即我们需要在onCreate中tv.setOnTouchListener(this);之后添加如下一句代 码。
tv.setLongClickable(true);
只有这样,view才能够处理不同于Tap(轻触)的hold(即ACTION_MOVE,或者多个ACTION_DOWN),我们同样可以通过 layout定义中的android:longClickable来做到这一点。
这次遇到的这个问题和上次MapView中setOnKeyListener遇到的问题挺类似,其实都是对SDK的了解不够全面,遇到了一次记住 了就好。不过话说回来,Google在文档方面确实需要加强了,起码可以在OnGestureListener中说明需要满足那些条件才可以保证手势被正 确识别。
发表评论
-
Ext.field.DatePicker汉化
2012-12-08 17:55 1937代码片段: // 放到Ext.application的la ... -
公司Augreal项目构架设计
2012-11-17 12:10 1027最近,公司接了一个移动应用方面的项目Augreal,经 ... -
Android WebView调用Js设置byte[]给Img src
2012-09-16 21:18 3466WebView与JS的相互调用就不在这里罗嗦了, 这里只说 ... -
Android Paint类介绍
2012-09-04 17:25 998/** * Paint类介绍 ... -
Android系统搜索对话框(浮动搜索框)的使用
2012-08-05 11:46 1240当您需要在您的应用程序中提供搜索服务时,您第一个想到的是您的搜 ... -
Android 利用缓存机制实现文件下载
2012-06-21 13:54 1656在下载文件或者在线浏览文件时,或者为了保证文件下载的正确性,需 ... -
Android 下网络抓包方法 使用tcpdump
2012-04-23 16:13 1163抓包需要tcpdump以及Root权限,tcpdump在本文后 ... -
使用ProGuard遇到“conversion to Dalvik format failed with error 1”错误的解决办法
2011-12-28 10:20 948ProGuard 是 Android 代码混淆工具,对于程序员 ... -
Microlog4Android使用
2011-11-07 19:00 21601. Add the following static var ... -
LinearLayout上onFling事件失效问题
2011-10-11 09:56 40641. 写一个类,实现OnGestureListener, O ... -
实时文件夹
2011-10-03 23:06 711实时文件夹 实时文件夹是一种用来显示由某个ContentP ... -
Android Supporting Multiple Screens
2011-05-14 00:03 981Android被设计为能运行在不同尺寸、不同像素的多种设备的系 ... -
Android处理多种屏幕尺寸
2011-05-13 14:17 15131 默认设置 如果应用程序针对android1.5或更低版本 ... -
Android各种屏幕尺寸
2011-05-13 03:12 1467多分辨率支持 在 ... -
Android处适应布局
2011-05-13 00:48 8951、使用高分辨率[high density display ( ... -
Eclipse将so文件打包到APK中
2011-05-09 16:13 3092使用Eclipse build APK文件,只要将so文件放在 ... -
Android NDK 编程环境搭建
2011-04-28 00:17 7581. 下载Android 1.5 NDK, Release 1 ... -
Android GSM驱动模块-response流程
2011-04-26 15:00 1240前文对request的分析, 终止在了at_send_comm ... -
Android GSM驱动模块-request流程
2011-04-26 14:59 9881. 多路复用I/O机制的运 ... -
Android GSM驱动模块-基本架构及初始化
2011-04-26 14:58 1033Android的RIL驱动模块, ...
相关推荐
手势识别技术是人机交互领域的一个重要分支,它旨在通过识别和理解人类的手势来实现更自然、直观的沟通方式。随着计算机技术的迅速发展,传统的人机交互方式,如键盘、鼠标和图形用户界面,已经无法满足日益复杂的...
android触屏事件总结 goodluck all
在"Android四大组件简述"这个项目中,你可以找到关于这些组件的示例代码和实践应用,通过学习和调试这些示例,可以更深入地理解四大组件的工作原理和使用方式。这将对提升你的Android开发技能大有裨益。
标题: 基于Matlab的动态手势识别系统 - 关键词:matlab GUI界面 动态手势识别 静态手势识别 - 步骤:从电脑中导入图片或者打开摄像头照识别,皮肤阈值分割,去噪处理,边缘检测,特征提取,识别结果 -简述:两种...
交互效果:有线鼠标>无线鼠标>手势识别≈触摸板 关键实验步骤实现简述 手势识别:通过识别手指的骨节点位置状态对不同的手势进行判定,进而实现不同的光标操作。通过接触判定对动画地鼠进行打击。 本实验中,主要...
简述android服务器端开发的客户端demo,里面是一个如何使用android连接服务器,访问api接口的demo,里面写了各种传参的方法,详细内容可以看我的另外一份pdf资源,这个是配套的,或者直接在评论区联系我,留下你的...
### 编译Android源码全过程详解 #### 一、获取Android源代码 在开始编译Android源码之前,首先需要确保获取完整的Android源代码。这一部分将详细介绍如何使用Git和Repo脚本完成这一任务。 ##### Git简介 Git是一...
【Android布局文件详解】 在Android应用开发中,界面设计是一个至关重要的环节,而XML格式的布局文件正是构建这些界面的核心工具。布局文件定义了应用程序界面的结构,包括它所包含的控件、控件间的相对位置以及...
详细介绍了基于springboot如何搭建服务器端应用程序,并非常详细的列出了各类api接口(主要是GET和POST的各种传参方法),简单的介绍了如何搭建springboot的服务器端,和创建android客户端,通过android的客户端访问...
在工业自动化领域,S7-1200PLC(SIMATIC S7-1200 Programmable Logic Controller)和MCGS(Monitor & Control Generating System)触摸屏的以太网通信是常见的配置方式,用于实现人机交互和数据交换。本文将详细介绍...
Android RecyclerView使用简述
电容式触摸屏的构造主要是在玻璃屏幕上镀一层透明的薄膜体层,再在导体层外加上一块保护玻璃,双玻璃设计能彻底保护导体层及感应器。电容式触摸屏在触摸屏四边均镀上狭长的电极,在导电体内形成一个低电压交流电场。...
Android是一种广泛使用的开源移动操作系统,它基于Linux内核并采用了Java编程语言,主要为触控屏移动设备设计。在Android应用开发中,控件(Widget)是构成用户界面的基本元素,它们负责显示应用的数据并允许用户...
### Android启动过程详解 #### 一、概述 Android操作系统启动过程是一个复杂且精细的过程,它涉及到从硬件层面的初始化到最终用户界面的呈现。整个启动流程可以大致分为以下几个阶段: 1. **init进程启动** 2. **...
简述:0-10 手势数字...特别送上: 一个检测效果不错的轻量化 手势识别权重文件,拿到即用 文件名为 “最终训练” 补充:这个数据集来源于我的校园课程设计,当时我制作了 UI+ 修改了v5的模型,轻松拿下课程设计
### Android开发环境搭建所需软件及安装指南 #### 一、概览 随着移动互联网的快速发展,Android操作系统作为全球市场份额最大的移动操作系统,其应用开发需求日益增长。为了进行Android应用程序的开发,开发者首先...