`
ipjmc
  • 浏览: 705911 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Android 手势类型与识别

阅读更多
引用

    很多时候,利用触摸屏的Fling、Scroll等Gesture(手势)操作来操作会使得应用程序的用户体验大大提升,比如用Scroll手势在 浏览器中滚屏,用Fling在阅读器中翻页等。在Android系统中,手势的识别是通过 GestureDetector.OnGestureListener接口来实现的,不过William翻遍了Android的官方文档也没有找到一个相 关的例子,API Demo中的TouchPaint也仅仅是提到了onTouch事件的处理,没有涉及到手势。
    我们先来明确一些概念,首先,Android的事件处理机制是基于Listener(监听器)来实现的,比我们今天所说的触摸屏相关的事件,就是通 过onTouchListener。其次,所有View的子类都可以通过setOnTouchListener()、 setOnKeyListener()等方法来添加对某一类事件的监听器。第三,Listener一般会以Interface(接口)的方式来提供,其中 包含一个或多个abstract(抽象)方法,我们需要实现这些方法来完成onTouch()、onKey()等等的操作。这样,当我们给某个view设 置了事件Listener,并实现了其中的抽象方法以后,程序便可以在特定的事件被dispatch到该view的时候,通过callbakc函数给予适 当的响应。
    看一个简单的例子,就用最简单的TextView来说明(事实上和ADT中生成的skeleton没有什么区别)。

public class GestureTest extends Activity implements OnTouchListener{
 
    @Override
    protected void onCreate(Bundle savedInstanceState) {
        super.onCreate(savedInstanceState);
        setContentView(R.layout.main);
 
        // init TextView
        TextView tv = (TextView) findViewById(R.id.page);
        // set OnTouchListener on TextView
        tv.setOnTouchListener(this);
        // show some text
        tv.setText(R.string.text);
    }
 
    @Override
    public boolean onTouch(View v, MotionEvent event) {
        Toast.makeText(this, "onTouch", Toast.LENGTH_SHORT).show();
        return false;
    }


我们给TextView的实例tv设定了一个onTouchListener,因为GestureTest类实现了OnTouchListener 接口,所以简单的给一个this作为参数即可。onTouch方法则是实现了OnTouchListener中的抽象方法,我们只要在这里添加逻辑代码即 可在用户触摸屏幕时做出响应,就像我们这里所做的——打出一个提示信息。



这里,我们可以通过MotionEvent的getAction()方法来获取Touch事件的类型,包括 ACTION_DOWN, ACTION_MOVE, ACTION_UP, 和ACTION_CANCEL。ACTION_DOWN是指按下触摸屏,ACTION_MOVE是指按下触摸屏后移动受力点,ACTION_UP则是指松 开触摸屏,ACTION_CANCEL不会由用户直接触发(所以不在今天的讨论范围,请参考ViewGroup.onInterceptTouchEvent(MotionEvent))。借助对于用户不同操作的判断,结合getRawX()、getRawY()、getX()和getY()等方法来获取坐标后,我们可以实现诸如拖动某一个按钮,拖动滚动条等功能。待机可以看看MotionEvent类的文档,另外也可以看考TouchPaint例子。

回到今天所要说的重点,当我们捕捉到Touch操作的时候,如何识别出用户的Gesture?这里我们需要GestureDetector.OnGestureListener接口的帮助,于是我们的GestureTest类就变成了这个样子。


    public class GestureTest extends Activity implements OnTouchListener,
        OnGestureListener {
        //...
    }


随后,在onTouch()方法中,我们调用GestureDetector的onTouchEvent()方法,将捕捉到的MotionEvent交给 GestureDetector 来分析是否有合适的callback函数来处理用户的手势。

    @Override
    public boolean onTouch(View v, MotionEvent event) {
        // OnGestureListener will analyzes the given motion event
        return mGestureDetector.onTouchEvent(event);
    }


接下来,我们实现了以下6个抽象方法,其中最有用的当然是onFling()、onScroll()和onLongPress()了。我已经把每一个方法代表的手势的意思写在了注释里,大家看一下就明白了。


// 用户轻触触摸屏,由1个MotionEvent ACTION_DOWN触发
    @Override
    public boolean onDown(MotionEvent e) {
        // TODO Auto-generated method stub
        Toast.makeText(this, "onDown", Toast.LENGTH_SHORT).show();
        return false;
    }
 
    // 用户轻触触摸屏,尚未松开或拖动,由一个1个MotionEvent ACTION_DOWN触发
    // 注意和onDown()的区别,强调的是没有松开或者拖动的状态
    @Override
    public void onShowPress(MotionEvent e) {
        // TODO Auto-generated method stub
    }
 
    // 用户(轻触触摸屏后)松开,由一个1个MotionEvent ACTION_UP触发
    @Override
    public boolean onSingleTapUp(MotionEvent e) {
        // TODO Auto-generated method stub
        return false;
    }
 
    // 用户按下触摸屏、快速移动后松开,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE, 1个ACTION_UP触发
    @Override
    public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
            float velocityY) {
        // TODO Auto-generated method stub
        return false;
    }
 
    // 用户长按触摸屏,由多个MotionEvent ACTION_DOWN触发
    @Override
    public void onLongPress(MotionEvent e) {
        // TODO Auto-generated method stub
 
    }
 
    // 用户按下触摸屏,并拖动,由1个MotionEvent ACTION_DOWN, 多个ACTION_MOVE触发
    @Override
    public boolean onScroll(MotionEvent e1, MotionEvent e2, float distanceX,
            float distanceY) {
        // TODO Auto-generated method stub
        return false;
    }


我们来试着做一个onFling()事件的处理吧,onFling()方法中每一个参数的意义我写在注释中了,需要注意的是Fling事件的处理代 码中,除了第一个触发Fling的ACTION_DOWN和最后一个ACTION_MOVE中包含的坐标等信息外,我们还可以根据用户在X轴或者Y轴上的 移动速度作为条件。比如下面的代码中我们就在用户移动超过100个像素,且X轴上每秒的移动速度大于200像素时才进行处理。

@Override
public boolean onFling(MotionEvent e1, MotionEvent e2, float velocityX,
        float velocityY) {
    // 参数解释:
    // e1:第1个ACTION_DOWN MotionEvent
    // e2:最后一个ACTION_MOVE MotionEvent
    // velocityX:X轴上的移动速度,像素/秒
    // velocityY:Y轴上的移动速度,像素/秒
 
    // 触发条件 :
    // X轴的坐标位移大于FLING_MIN_DISTANCE,且移动速度大于FLING_MIN_VELOCITY个像素/秒
 
    if (e1.getX() - e2.getX() > FLING_MIN_DISTANCE
            && Math.abs(velocityX) > FLING_MIN_VELOCITY) {
        // Fling left
        Toast.makeText(this, "Fling Left", Toast.LENGTH_SHORT).show();
    } else if (e2.getX() - e1.getX() > FLING_MIN_DISTANCE
            && Math.abs(velocityX) > FLING_MIN_VELOCITY) {
        // Fling right
        Toast.makeText(this, "Fling Right", Toast.LENGTH_SHORT).show();
    }
 
    return false;
}


问题是,这个时候如果我们尝试去运行程序,你会发现我们根本得不到想要的结果,跟踪代码的执行的会发现onFling()事件一直就没有被捕捉到。这正是一开始困扰我的问题,这到底是为什么呢?
我在讨论组的Gesture detection这个帖子里找到了答案,即我们需要在onCreate中tv.setOnTouchListener(this);之后添加如下一句代码。

tv.setLongClickable(true);

只有这样,view才能够处理不同于Tap(轻触)的hold(即ACTION_MOVE,或者多个ACTION_DOWN),我们同样可以通过layout定义中的android:longClickable来做到这一点。

这次遇到的这个问题和上次MapView中setOnKeyListener遇到的问题挺类似,其实都是对SDK的了解不够全面,遇到了一次记住了就好。不过话说回来,Google在文档方面确实需要加强了,起码可以在OnGestureListener中说明需要满足那些条件才可以保证手势被正确识别。
分享到:
评论

相关推荐

    android手势库识别

    在Android开发中,手势识别是提升用户体验的重要一环。Android手势库识别主要涉及的是如何让应用能够理解并响应用户的触摸动作,从而实现更直观、更便捷的交互方式。本教程适用于初学者,将深入探讨如何在Android...

    android手势识别讲解源码

    本文将基于“android手势识别讲解源码”这个主题,深入解析手势识别的基本原理,以及如何在实际项目中应用这些概念。 手势识别主要依赖于Android SDK中的GestureOverlayView和GestureLibrary类。GestureOverlayView...

    android 手势识别学习

    本教程将聚焦于Android手势识别的实现,主要关注`GestureDetector`类。 `GestureDetector`是Android SDK中的一个核心组件,用于处理基本的手势检测。它处理了滑动(swipe)、点击(tap)和长按(long press)等常见...

    Android手势识别源码

    本项目提供的“Android手势识别源码”是一个可以运行的应用程序,其特点是代码注释清晰,便于理解,非常适合开发者学习和研究手势识别技术。 在Android中,手势识别通常基于触摸屏事件(MotionEvent)来实现。当...

    android手势识别源码讲解

    本文将深入解析“android手势识别源码讲解”中的核心概念和实现原理,帮助你理解和掌握Android手势识别的实现方式。 首先,Android的手势识别主要依赖于`GestureDetector`和`ScaleGestureDetector`这两个内置类。`...

    android手势识别

    本文将深入探讨Android手势识别的基础知识,包括基本概念、实现机制、常见手势以及如何在应用程序中集成手势识别功能。 一、手势识别基础 1. 基本概念:手势识别是指系统能够识别并解析用户在触摸屏上绘制的特定...

    Android实时手势动作识别APP Demo

    从效果来看,Android手势识别Demo性能还是顶呱呱的,平均精度平均值mAP_0.5=0.99421,mAP_0.5:0.95=0.82706。APP在普通Android手机上可以达到实时的手势识别效果,CPU(4线程)约30ms左右,GPU约25ms左右 ,基本满足...

    安卓 android 复杂 手势识别

    安卓 android 复杂 手势识别,不是左右滑动,而是识别复杂的手势,像es管理器 用户自定义手势识别:http://download.csdn.net/detail/u013506037/7898755 我的博客首页...

    基于百度手势识别API实现 Android隔空手势

    这里我们讨论的是如何利用百度的AI技术,特别是其手势识别API,来实现在Android应用中隔空手势的功能。百度的手势识别API是基于深度学习的,能够高效准确地识别多种手势,为开发者提供了强大的工具。 首先,要使用...

    android 之GestureOverlayView手势识别

    `Gesture`类是Android手势识别的核心,它包含了手势的所有轨迹点信息。通过`Gesture`对象,我们可以使用`GestureLibrary`和`GestureDetector`进行手势的识别和比较。`GestureLibrary`用于存储预定义的手势,而`...

    安卓 android 用户自定义手势 手势识别

    二、Android手势识别的实现方式 1. 基于View的手势识别: Android SDK提供了一些内置的GestureOverlayView类,可以方便地添加到布局中,让用户在指定区域内绘制手势。系统会自动处理手势的识别,并通过监听器回调...

    gestures-android手势识别两个对勾手势 OnGestureListener手势识别

    android手势识别两个对勾手势 OnGestureListener手势识别 可用于加载手势库

    Android 手势识别的API简单使用

    在Android开发中,手势识别是用户交互的重要组成部分,它允许用户通过特定的手势来执行相应的操作,提升用户体验。本文将详细介绍如何使用Android API中的GestureOverlayView、GestureDetector和...

    AndroidStudio:手势识别

    "AndroidStudio 手势识别" AndroidStudio 手势识别是 AndroidStudio 中的一项功能,允许开发者在应用程序中识别用户的手势。手势识别是一个复杂的过程,需要使用机器学习和模式识别技术来实现。通过手势识别,...

    android触屏手势识别

    在Android开发中,触屏手势识别是提升用户体验和交互性的重要技术。手势识别允许用户通过在屏幕上绘制特定的图案或动作来执行相应的操作,比如滑动、点击、双击、长按、捏合等。本篇文章将深入探讨Android触屏手势...

    在Android中的JNI接口中使用OpenCV库进行手势识别

    利用Android开发中的JNI接口,导入OpenCV库进行手势识别,所使用的图片全部从Android的camera中进行采集,手势需要带上红手套,程序识别红色的方块物体,能够识别出1,2,3。。。的数字。

    AndroidEditText限制及手势识别

    本篇将详细讲解如何实现这些限制,并探讨手势识别在Android中的应用。 一、EditText输入限制 1. 字符长度限制:可以使用`setMaxLength()`方法设置`EditText`能接受的最大字符数。例如,如果只允许输入10个字符,...

    Android应用源码之(触屏手势识别).zip

    在Android应用开发中,触屏手势识别是提升用户体验的关键技术之一。...通过对这些源码的学习,开发者可以深入理解Android手势识别机制,并将这些技术应用到自己的项目中,为用户提供更加丰富和自然的交互体验。

Global site tag (gtag.js) - Google Analytics