很多时候,利用触摸屏的Fling、Scroll等Gesture(手势)操作来操作会使得应用程序的用户体验大大提升,比如用Scroll手势在 浏览器中滚屏,用Fling在阅读器中翻页等。在Android系统中,手势的识别是通过 GestureDetector.OnGestureListener接口来实现的,不过William翻遍了Android的官方文档也没有找到一个相 关的例子,API Demo中的TouchPaint也仅仅是提到了onTouch事件的处理,没有涉及到手势。
我们先来明确一些概念,首先,Android的事件处理机制是基于Listener(监听器)来实现的,比我们今天所说的触摸屏相关的事件,就是通 过onTouchListener。其次,所有View的子类都可以通过setOnTouchListener()、 setOnKeyListener()等方法来添加对某一类事件的监听器。第三,Listener一般会以Interface(接口)的方式来提供,其中 包含一个或多个abstract(抽象)方法,我们需要实现这些方法来完成onTouch()、onKey()等等的操作。这样,当我们给某个view设 置了事件Listener,并实现了其中的抽象方法以后,程序便可以在特定的事件被dispatch到该view的时候,通过callbakc函数给予适 当的响应。
看一个简单的例子,就用最简单的TextView来说明(事实上和ADT中生成的skeleton没有什么区别)。
01.public class GestureTest extends Activity implements OnTouchListener{
02.
03. @Override
04. protected void onCreate(Bundle savedInstanceState) {
05. super.onCreate(savedInstanceState);
06. setContentView(R.layout.main);
07.
08. // init TextView
09. TextView tv = (TextView) findViewById(R.id.page);
10. // set OnTouchListener on TextView
11. tv.setOnTouchListener(this);
12. // show some text
13. tv.setText(R.string.text);
14. }
15.
16. @Override
17. public boolean onTouch(View v, MotionEvent event) {
18. Toast.makeText(this, "onTouch", Toast.LENGTH_SHORT).show();
19. return false;
20. }
我们给TextView的实例tv设定了一个onTouchListener,因为GestureTest类实现了OnTouchListener 接口,所以简单的给一个this作为参数即可。onTouch方法则是实现了OnTouchListener中的抽象方法,我们只要在这里添加逻辑代码即 可在用户触摸屏幕时做出响应,就像我们这里所做的——打出一个提示信息。
这里,我们可以通过MotionEvent的getAction()方法来获取Touch事件的类型,包括 ACTION_DOWN, ACTION_MOVE, ACTION_UP, 和ACTION_CANCEL。ACTION_DOWN是指按下触摸屏,ACTION_MOVE是指按下触摸屏后移动受力点,ACTION_UP则是指松 开触摸屏,ACTION_CANCEL不会由用户直接触发(所以不在今天的讨论范围,请参考ViewGroup.onInterceptTouchEvent(MotionEvent))。借助对于用户不同操作的判断,结合getRawX()、getRawY()、getX()和getY()等方法来获取坐标后,我们可以实现诸如拖动某一个按钮,拖动滚动条等功能。待机可以看看MotionEvent类的文档,另外也可以看考TouchPaint例子。
回到今天所要说的重点,当我们捕捉到Touch操作的时候,如何识别出用户的Gesture?这里我们需要GestureDetector.OnGestureListener接口的帮助,于是我们的GestureTest类就变成了这个样子。
1.public class GestureTest extends Activity implements OnTouchListener,
2. OnGestureListener {
3....
4.}
随后,在onTouch()方法中,我们调用GestureDetector的onTouchEvent()方法,将捕捉到的MotionEvent交给 GestureDetector 来分析是否有合适的callback函数来处理用户的手势。
1.@Override
2. public boolean onTouch(View v, MotionEvent event) {
3. // OnGestureListener will analyzes the given motion event
4. return mGestureDetector.onTouchEvent(event);
5. }
接下来,我们实现了以下6个抽象方法,其中最有用的当然是onFling()、onScroll()和onLongPress()了。我已经把每一个方法代表的手势的意思写在了注释里,大家看一下就明白了。
01.// 用户轻触触摸屏,由1个MotionEvent ACTION_DOWN触发
02. @Override
03. public boolean onDown(MotionEvent e) {
04. // TODO Auto-generated method stub
05. Toast.makeText(this, "onDown", Toast.LENGTH_SHORT).show();
06. return false;
07. }
08.
09. // 用户轻触触摸屏,尚未松开或拖动,由一个1个MotionEvent ACTION_DOWN触发
10. // 注意和onDown()的区别,强调的是没有松开或者拖动的状态
11. @Override
12. public void onShowPress(MotionEvent e) {
13. // TODO Auto-generated method stub
14. }
15.
16. // 用户(轻触触摸屏后)松开,由一个1个MotionEvent ACTION_UP触发
17. @Override
18. public boolean onSingleTapUp(MotionEvent e) {
19. // TODO Auto-generated method stub
20. return false;
21. }
22.
23. // 用户按下触摸屏、快速移动后松开,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE, 1个ACTION_UP触发
24. @Override
25. public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
26. float velocityY) {
27. // TODO Auto-generated method stub
28. return false;
29. }
30.
31. // 用户长按触摸屏,由多个MotionEvent ACTION_DOWN触发
32. @Override
33. public void onLongPress(MotionEvent e) {
34. // TODO Auto-generated method stub
35.
36. }
37.
38. // 用户按下触摸屏,并拖动,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE触发
39. @Override
40. public boolean onScroll(MotionEvent e1, MotionEvent e2, float distanceX,
41. float distanceY) {
42. // TODO Auto-generated method stub
43. return false;
44. }
我们来试着做一个onFling()事件的处理吧,onFling()方法中每一个参数的意义我写在注释中了,需要注意的是Fling事件的处理代 码中,除了第一个触发Fling的ACTION_DOWN和最后一个ACTION_MOVE中包含的坐标等信息外,我们还可以根据用户在X轴或者Y轴上的 移动速度作为条件。比如下面的代码中我们就在用户移动超过100个像素,且X轴上每秒的移动速度大于200像素时才进行处理。
01.@Override
02.public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
03. float velocityY) {
04. // 参数解释:
05. // e1:第1个ACTION_DOWN MotionEvent
06. // e2:最后一个ACTION_MOVE MotionEvent
07. // velocityX:X轴上的移动速度,像素/秒
08. // velocityY:Y轴上的移动速度,像素/秒
09.
10. // 触发条件 :
11. // X轴的坐标位移大于FLING_MIN_DISTANCE,且移动速度大于FLING_MIN_VELOCITY个像素/秒
12.
13. if (e1.getX() - e2.getX() > FLING_MIN_DISTANCE
14. && Math.abs(velocityX) > FLING_MIN_VELOCITY) {
15. // Fling left
16. Toast.makeText(this, "Fling Left", Toast.LENGTH_SHORT).show();
17. } else if (e2.getX() - e1.getX() > FLING_MIN_DISTANCE
18. && Math.abs(velocityX) > FLING_MIN_VELOCITY) {
19. // Fling right
20. Toast.makeText(this, "Fling Right", Toast.LENGTH_SHORT).show();
21. }
22.
23. return false;
24.}
问题是,这个时候如果我们尝试去运行程序,你会发现我们根本得不到想要的结果,跟踪代码的执行的会发现onFling()事件一直就没有被捕捉到。这正是一开始困扰我的问题,这到底是为什么呢?
我在讨论组的Gesture detection这个帖子里找到了答案,即我们需要在onCreate中tv.setOnTouchListener(this);之后添加如下一句代码。
1.tv.setLongClickable(true);
只有这样,view才能够处理不同于Tap(轻触)的hold(即ACTION_MOVE,或者多个ACTION_DOWN),我们同样可以通过layout定义中的android:longClickable来做到这一点。
这次遇到的这个问题和上次MapView中setOnKeyListener遇到的问题挺类似,其实都是对SDK的了解不够全面,遇到了一次记住了就好。不过话说回来,Google在文档方面确实需要加强了,起码可以在OnGestureListener中说明需要满足那些条件才可以保证手势被正确识别。
分享到:
相关推荐
1. 基本概念:手势识别是指系统能够识别并解析用户在触摸屏上绘制的特定图案或动作,如滑动、点击、捏合等。这些手势可以被系统解析为特定的命令或操作。 2. 技术原理:Android系统通过触摸事件(MotionEvent)来...
QGestureEvent是Qt事件系统的一部分,它包含了在触摸屏上发生的所有手势信息。当用户执行手势时,Qt会生成一个QGestureEvent,并将其发送给相应部件的`gestureEvent()`方法。这个事件包含了所有已识别的手势对象,...
在Android应用开发中,触摸屏手势识别是提升用户体验的关键因素之一。常见的手势如Fling(快速滑动)、Scroll(滚动)等,可以让用户更自然地与应用交互,例如在浏览器中滚动页面或阅读器中翻页。Android系统通过...
通过深入研究这个【Android输入法手势程序源码】,开发者不仅可以提升Android应用开发技能,还能掌握手势识别技术,并可能启发新的创新想法,比如结合人工智能进行更智能的手势预测和学习。对于有志于从事Android...
本篇将详细解析“android多触摸屏幕测试CIT程序”的核心概念、测试目的以及如何进行此类测试。 一、多触摸技术概述 多触摸屏幕允许用户通过两个或更多的手指同时与屏幕交互,提供更丰富的输入方式,如捏合缩放、...
这意味着手势识别必须适应不同的输入设备,如触摸屏或手写笔。 8. **测试与调试**:开发过程中,进行全面的测试至关重要,包括单元测试、集成测试和用户体验测试。要确保所有手势都能准确无误地工作,并在各种情况...
总之,“Android输入法手势程序源码”涵盖了Android应用开发的多个方面,包括基本架构、输入法服务、手势识别、UI设计、性能优化等。对于想要深入理解Android系统以及输入法实现的学生来说,这是一个非常有价值的...
在深入研究这个源码时,开发者可以了解到手势识别的算法、如何处理用户的触控事件、与Android系统的集成方式,以及如何实现自定义键盘布局等关键知识点。此外,还可以探索如何利用Android的InputMethodService接口来...
本资源提供的"Android输入法手势程序源码.zip"是一份专为Android系统开发的手势输入法的源代码,可以帮助开发者深入理解如何实现自定义的输入法功能,特别是手势识别技术。下面我们将详细探讨这个源码中的关键知识点...
本示例主要关注如何在Android应用中实现手势解锁功能,包括基础的手势解锁逻辑以及自定义手势识别。 一、手势解锁基本原理 手势解锁的核心在于识别用户在触屏上绘制的连续点序列。系统记录用户设定的手势路径(一...
在Android平台上开发手势识别系统,通常会用到以下工具:Android Studio作为集成开发环境,用于编写代码和调试;OpenCV库,这是一个强大的计算机视觉库,用于图像处理和特征提取;还有可能使用Java或Kotlin编程语言...
用户空间驱动还要处理多点触控、手势识别等功能,确保触摸屏的正常工作。 3. HAL(Hardware Abstraction Layer)层:在Android系统中,硬件抽象层负责提供标准化接口,使得上层服务和应用可以不关心具体的硬件实现...
2. **手势识别**:理解如何通过Android的MotionEvent类捕获触摸事件,以及如何解析手势路径并将其与预定义的手势模板匹配。 3. **布局管理**:XML布局文件的编写,如使用LinearLayout、RelativeLayout或...
Android SDK具有向下兼容性,即低版本的SDK编写的程序在高版本设备上通常也能正常运行。使用较低版本的SDK可以确保游戏兼容更多机型,覆盖更广泛的用户群体。同时,低版本SDK在性能和内存管理方面可能更为优化,有助...
2. **触摸屏测试**:验证触摸屏的灵敏度和精确性。这包括单点触摸、滑动、双击、捏合缩放等手势的检测,确保它们都能准确无误地被设备识别。 3. **多点触控测试**:测试屏幕同时处理多个触摸输入的能力,这对于支持...
这个源码资源提供了这样的功能,可以帮助开发者深入了解如何在Android应用中集成手势识别和日历功能。下面将详细讲解这个源码中的关键知识点。 首先,`android`是Android操作系统的基础,它是Google主导的开源项目...
在Android系统中,手势识别主要依赖于`GestureDetector`类,它提供了处理基本触摸事件的能力,如滑动(swipe)、点击(tap)等。为了在日历应用中实现手势滑动,我们需要集成`GestureDetector`到我们的项目中。 1. ...
在Android应用开发中,手势识别和处理是提升用户体验的关键因素之一。这份名为"Android应用源码之手势滑动源码(适合新手).rar"的压缩包文件,显然是为初学者提供了一个学习Android手势滑动实现的实践教程。下面将...
11. **安全性**:手势解锁的安全性相对较低,可能被侧视或通过触摸屏上的残留指纹破解。开发者需要权衡易用性和安全性,可能需要结合其他安全措施。 12. **版本兼容性**:考虑到Android的碎片化问题,开发的应用应...
开发者需要对FireMonkey组件有深入理解,熟悉手势识别器的使用,以及如何在Delphi XE环境下编写响应手势的事件处理代码。这样的项目有助于提升开发者在跨平台开发中的技能,特别是针对触摸屏设备的用户体验设计。