event事件 ios
2013-10-03 15:53:26 sanmaofly 阅读数 2919
Accelerometer实际是有三个accelerometer组成的,分别代表x y z三个坐标,根据计算这三个坐标的运动探测出设备的移动和方向。
访问设备数据的三种不同方式:
如果只是想探测设备的方向,不必知道方向矢量,使用UIDevices就够了。
如果想设备在设备晃动的时候响应,通过UIKit的motion-event处理方法
如果上述两个都不能满足需求,使用Core Motion Framework访问accelerometer、gyroscope和 device motion classes
Motion Event使用responder chain来处理事件。当用户开始晃动设备的时候,iOS发送第一个motion event给第一个responder来处理。如果第一个放弃处理,则转交给下一个。
处理Motion Event事件可以重载方法motionBegan:withEvent:motionEnded:withEvent:, and motionCancelled:withEvent: 了
需要在Info.plist文件里添加相应访问权限,包括:accelerometer, gyroscope
Core Motion Framework通常用来获取accelerometer和gyroscope数据并传给app层进行处理。
Core Motion不会跟UIEvent链接也不会使用responder chain,而是直接和需要的app交互。
CMAccelerometerData 捕获加速感应器的每一个空间轴
CMGyroData 捕获围绕三个空间轴的旋转度
CMDeviceMotion 封装各个测量值,包括坐标、旋转和加速度等
CMMotionManager是Core Motion的重要一个类,用来管理Motion Event各流程;有两个方式来处理motion data:
Pull app申请获得更新的数据 
Push app指定更新的间隔、实现 block来处理数据;
Handling Accelerometer Events:
Pull:  startAccelerometerUpdates
Push: startAccelerometerUpdatesToQueue:withHandler: 
Handling Rotation Rate Data:处理该类事件首先创建一个CMMotionManager然后:
Pull:startGyroUpdates 持续更新CMMotionManger的 gyroData 属性
Push: startGyroUpdatesToQueue:withHandler:
Handling Processed Device Motion Data
Pull:startDeviceMotionUpdates 持续更新CMMotionManger的 deviceMotion 属性
Push: startDeviceMotionUpdatesToQueue:withHandler:
Remote Control Events: 允许用户控制app的多媒体,包括音视频内容
为了接受remote control events,app需要做到:
Be the first responder: view或view controller可能需要重载 canBecomeFirstResponder并发送自己becomeFirstResponder 
Turn on the delivery of remote control events 
[[UIApplication sharedApplication] beginReceivingRemoteControlEvents];
// Turn off remote control event delivery
    [[UIApplication sharedApplication] endReceivingRemoteControlEvents];
 
    // Resign as first responder
    [self resignFirstResponder];

Begin playing audio
 remoteControlReceivedWithEvent:来处理Remote control events

 
2013-04-15 22:47:35 yangzhongxuan 阅读数 5315

From:RuiQ's自留地

项目里有一个需求,类似新浪或者腾讯微博的顶部title栏的类别选择器的消失(在选择器展开的时候,触摸屏幕任何地方使其消失)。

最开始的想法是当这个选择器(selectorView)展开的时候,在当前屏幕上加入一个铺满整个屏幕的透明button来拦截所有的触摸事件。

可是这个方案实现起来非常麻烦,也不优雅,而且发现button拦截不到scrollView的滑动事件,所以决定放弃。

后来经过经理提醒,在UIApplication下有一个sendEvent函数,可以从这里入手。

于是找了一下iOS事件机制的资料,sendEvent函数的介绍如下:

sendEvent:

Dispatches an event to the appropriate responder objects in the application.

- (void)sendEvent:(UIEvent *)event
Parameters
event

UIEvent object encapsulating the information about an event, including the touches involved.

Discussion

Subclasses may override this method to intercept incoming events for inspection and special dispatching. iOS calls this method for public events only.

Availability
  • Available in iOS 2.0 and later.

 摘抄《iOS程序之事件处理流程》资料:

在iOS系统中有个很重要的概念:Responder。基本上所有的UI相关的控件,view和viewcontroller都是继承自UIResponder。事件的分发正是通过由控件树所构成的responder chain(响应链)所进行的。一个典型的iOS响应链如下:

                                              uikit_responder_chain

当用户发起一个事件,比如触摸屏幕或者晃动设备,系统产生一个事件,同时投递给UIApplication,而UIApplication则将这个事件传递给特定的UIWindow进行处理(正常情况都一个程序都只有一个UIWindow),然后由UIWindow将这个事件传递给特定的对象(即first responder)并通过响应链进行处理。虽然都是通过响应链对事件进行处理,但是触摸事件和运动事件在处理上有着明显的不同(主要体现在确定哪个对象才是他们的first responder):

看起来很对路,触摸事件发生后,会先经过hitTest确定触摸事件发生在哪个view上,然后该事件会经由sendEvent分发到“合适”的对象进行处理,也就是说sendEvent相当于事件的中转站,在这里可以拦截所有的iOS事件。

        在iOS系统中,一共有三种形式的事件:触摸事件(Touch Event),运动事件(Motion Event)和远端控制事件(Remote-control Event)。顾名思义,触摸事件就是当用户触摸屏幕时发生的事件,而运动事件是用户移动设备时发生的事件:加速计,重力感应。远端控制事件可能比较陌生:如通过耳机进行控制iOS设备声音等都属于远端控制事件—-下面不展开说,因为和主题无关,详细的内容可以参考: 《Remote Control of Multimedia》 。

于是理了一下思路,决定就从它入手。

具体流程是这样:

1.新建一个自定义的UIApplication(MyApplication),并替换系统默认的UIApplication:

  在程序入口处(main.m)修改代码,这样程序就会调用我们的自定义Application类

int main(int argc, char *argv[])
{
    @autoreleasepool {
        return UIApplicationMain(argc, argv, NSStringFromClass([MyApplication class]), NSStringFromClass([AppDelegate class]));
    }
}

2.在MyApplication中实现sendEvent函数,利用系统通知中心(NSNotificationCenter)发送触摸事件:

-(void)sendEvent:(UIEvent *)event
{
    if (event.type==UIEventTypeTouches) {
        if ([[event.allTouches anyObject] phase]==UITouchPhaseBegan) {
            //响应触摸事件(手指刚刚放上屏幕)
            [[NSNotificationCenter defaultCenter] postNotification:[NSNotification notificationWithName:nScreenTouch object:nil userInfo:[NSDictionary dictionaryWithObject:event forKey:@"data"]]];
            //发送一个名为‘nScreenTouch’(自定义)的事件
        }
    }
    [super sendEvent:event];
}

3.在selectorView的构造函数中注册nScreenTouch事件,并判断该次触摸时间是否由selectorView引发,如果不是,则隐藏selectorView。

- (id)initWithFrame:(CGRect)frame
{
    self = [super initWithFrame:frame];
    if (self) {
        
        //注册nScreenTouch事件
        [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(onScreenTouch:) name:nScreenTouch object:nil];
        
    }
    return self;
}
-(void)dealloc
{
    //移除nScreenTouch事件
    [[NSNotificationCenter defaultCenter] removeObserver:self name:nScreenTouch object:nil];
    [super dealloc];
}
-(void) onScreenTouch:(NSNotification *)notification
{
    UIEvent *event=[notification.userInfo objectForKey:@"data"];
    UITouch *touch=[event.allTouches anyObject];
    if (touch.view!=self) {
        //取到该次touch事件的view,如果不是触摸了selectorView,则隐藏selectorView.
        [UIView animateWithDuration:0.5 animations:^
        {
            self.alpha=0;
        }];
        [UIView commitAnimations];
    }
}

这样就实现了触摸任意地方,能隐藏弹出窗口的需求。相比较添加隐藏view的方案,这个方案更优雅,只是性能可能会有点损耗,但是可以通过添加全局的开关来控制发送消息的时机(比如只有当selectorView显示之后,才发送那个事件)。

总结

通过sendEvent配合消息中心,可以实现很多看起来挺复杂的功能,而且从解耦的角度,也非常优雅。

另附两个链接可供参考!http://mithin.in/2009/08/26/detecting-taps-and-events-on-uiwebview-the-right-way

http://atastypixel.com/blog/a-trick-for-capturing-all-touch-input-for-the-duration-of-a-touch/


2013-12-13 14:19:32 hshou2007 阅读数 218

From: http://blog.csdn.net/zhouxinfang/article/details/17298927    

   当一个用户发起的event发生时,UIKit创建一个event对象,该对象包含了需要处理该event的信息。然后UIKit会把该event对象添加到event队列.一个event在被分发到能够处理它的对象之前经过了很长的一段行程,首先UIApplication 会从顶层的event队列中取出一个event,然后发送给key window对象,key window对象的在这里起的作用就是根据该event的信息,找到能够处理它的最原始对象

在这里Key window通过两种方式找到能处理event的最原始的对象

Touch events:Key window会尝试deliver这些eventtouch所产生的view上面,最终找到的viewhit-test view。这种找到hit-text view的方法叫做hit-testing

Motion and remote control events:对于这些事件,Key window会将这些事件发送给first responder对象去处理。

这两种处理event的方法的最终目标是找到一个对象能够处理所产生的event。所以,UIKit会自动根据event类型发送到合适的对象去处理该event,对于touch event,这个对象就是hit-test view,对于其他的event类型,这个对象就是first responder。

Hit-Testing Returns the view where a touch occurred

IOS 使用hit-testing方法找到touch产生的viewHit-testing会检查一个touch是否发生在相关的view当中,如果是的话,会遍历该viewsubviews,在该view层次结构中最底层并且包含该touch pointview,就是所要查找的hit-test view,当检查出hit-test view后,ios就会把event传递给该view处理。

举个例子:如下图,ios根据如下顺序查找subviews

1.The touch is within the bounds of view A,so it checks subview B and C

2.The touch is not within the bounds of view B,but it is within the bounds of view C,so it checks subviews D and E.

3.The touch is not within the bounds of view D,but it is within the bounds of view E,view E is the lowest view in the view hierarchy that contains the touch,so it becomes the hit-test view.

hitTest:WithEvent;方法解析

hitTest:WithEvent方法返回hit test view,参数为CGPoint UIEvent,hitTest:WithEvent方法第一步会调用 pointInside:withEvent:方法,如果CGPoint 是在该viewbounds中时,pointInside:withEvent:返回YES,然后,该方法会在所有的子视图上递归调用hitTest:withEvent:并返回YES

如果该CGPoint不在该viewbounds中时,第一次调用pointInside:withEvent:返回NO,然后该CGPoint被忽略了,并且hitTest:WithEvent返回nil,如果有一个subview返回NO,那么整个view层次结构中的每个分支都被忽略了,因为一个touch如果不是产生在subview中,那么该subview的子subview也不可能产生。也就是说任何一个subview中的point如果是在一个superview的外面,那么该subview无法获取touch事件。当把一个subviewclipsToBounds 属性设为No时会发生这种情况。

touch event个人总结:

1.touch事件发生,创建UIEvent对象

2.按照Applicationview层次结构,逐层调用每个viewhitTest:withEvent:方法,并传入该event对象,view根据pointInside:withEvent:方法和来决定touch点是否包含在自己的bounds中;

3.如果viewbounds包含了touch点,该view会遍历自己的subview,并调用每个subviewpointInside:withEvent:方法来进一步决定touch事件是发生在自己本身,还是自己的subview上。

4.重复第二,三步,并筛选出最终接收touch事件的view对象

The Responder Chain Is Made Up of Responder Objects

许多类型的事件依赖responder chain(响应链)来传递,所谓的responder chain就是一系列的responder 对象,响应链始于first responder 结束于application对象,如果first responder不能处理一个eventios会将事件传递给响应链中的next responder

一个responder对象指能响应和处理events的对象,UIResponder 类是所有responder对象的基类,它定义的编程的接口不仅仅是为了处理event,也是为了处理常见的响应行为。UIViewController UIView UIApplication的实例都是responder对象。

first responder设计的目的是作为事件接受的第一个对象,first responder 是一个view 对象。一个对象要成为firest responder要有2个步骤。

1.重写 canBecomeFirstResponder 方法,并返回YES

2.得到 becomeFirstResponder消息,如果需要,一个对象可以给自己发送该消息

Events are not the only objects that rely on the responder chain. The responder chain is used in all of the following

Touch events:如果hit-test view不能处理touch 事件,那么事件通过响应链传递,且始于hit-test view

Text editing:当用户点击一个text field或者一个text view时,该view自动成为first responder。默认情况下虚拟键盘同时会出现,并且text field 或者text view成为编辑的焦点。

2014-02-16 22:30:54 u012116009 阅读数 553

From:RuiQ's自留地

项目里有一个需求,类似新浪或者腾讯微博的顶部title栏的类别选择器的消失(在选择器展开的时候,触摸屏幕任何地方使其消失)。

最开始的想法是当这个选择器(selectorView)展开的时候,在当前屏幕上加入一个铺满整个屏幕的透明button来拦截所有的触摸事件。

可是这个方案实现起来非常麻烦,也不优雅,而且发现button拦截不到scrollView的滑动事件,所以决定放弃。

后来经过经理提醒,在UIApplication下有一个sendEvent函数,可以从这里入手。

于是找了一下iOS事件机制的资料,sendEvent函数的介绍如下:

sendEvent:

Dispatches an event to the appropriate responder objects in the application.

- (void)sendEvent:(UIEvent *)event
Parameters
event

UIEvent object encapsulating the information about an event, including the touches involved.

Discussion

Subclasses may override this method to intercept incoming events for inspection and special dispatching. iOS calls this method for public events only.

Availability
  • Available in iOS 2.0 and later.

 摘抄《iOS程序之事件处理流程》资料:

在iOS系统中有个很重要的概念:Responder。基本上所有的UI相关的控件,view和viewcontroller都是继承自UIResponder。事件的分发正是通过由控件树所构成的responder chain(响应链)所进行的。一个典型的iOS响应链如下:

                                              uikit_responder_chain

当用户发起一个事件,比如触摸屏幕或者晃动设备,系统产生一个事件,同时投递给UIApplication,而UIApplication则将这个事件传递给特定的UIWindow进行处理(正常情况都一个程序都只有一个UIWindow),然后由UIWindow将这个事件传递给特定的对象(即first responder)并通过响应链进行处理。虽然都是通过响应链对事件进行处理,但是触摸事件和运动事件在处理上有着明显的不同(主要体现在确定哪个对象才是他们的first responder):

看起来很对路,触摸事件发生后,会先经过hitTest确定触摸事件发生在哪个view上,然后该事件会经由sendEvent分发到“合适”的对象进行处理,也就是说sendEvent相当于事件的中转站,在这里可以拦截所有的iOS事件。

        在iOS系统中,一共有三种形式的事件:触摸事件(Touch Event),运动事件(Motion Event)和远端控制事件(Remote-control Event)。顾名思义,触摸事件就是当用户触摸屏幕时发生的事件,而运动事件是用户移动设备时发生的事件:加速计,重力感应。远端控制事件可能比较陌生:如通过耳机进行控制iOS设备声音等都属于远端控制事件—-下面不展开说,因为和主题无关,详细的内容可以参考: 《Remote Control of Multimedia》 。

于是理了一下思路,决定就从它入手。

具体流程是这样:

1.新建一个自定义的UIApplication(MyApplication),并替换系统默认的UIApplication:

  在程序入口处(main.m)修改代码,这样程序就会调用我们的自定义Application类

int main(int argc, char *argv[])
{
    @autoreleasepool {
        return UIApplicationMain(argc, argv, NSStringFromClass([MyApplication class]), NSStringFromClass([AppDelegate class]));
    }
}

2.在MyApplication中实现sendEvent函数,利用系统通知中心(NSNotificationCenter)发送触摸事件:

-(void)sendEvent:(UIEvent *)event
{
    if (event.type==UIEventTypeTouches) {
        if ([[event.allTouches anyObject] phase]==UITouchPhaseBegan) {
            //响应触摸事件(手指刚刚放上屏幕)
            [[NSNotificationCenter defaultCenter] postNotification:[NSNotification notificationWithName:nScreenTouch object:nil userInfo:[NSDictionary dictionaryWithObject:event forKey:@"data"]]];
            //发送一个名为‘nScreenTouch’(自定义)的事件
        }
    }
    [super sendEvent:event];
}

3.在selectorView的构造函数中注册nScreenTouch事件,并判断该次触摸时间是否由selectorView引发,如果不是,则隐藏selectorView。

- (id)initWithFrame:(CGRect)frame
{
    self = [super initWithFrame:frame];
    if (self) {
        
        //注册nScreenTouch事件
        [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(onScreenTouch:) name:nScreenTouch object:nil];
        
    }
    return self;
}
-(void)dealloc
{
    //移除nScreenTouch事件
    [[NSNotificationCenter defaultCenter] removeObserver:self name:nScreenTouch object:nil];
    [super dealloc];
}
-(void) onScreenTouch:(NSNotification *)notification
{
    UIEvent *event=[notification.userInfo objectForKey:@"data"];
    UITouch *touch=[event.allTouches anyObject];
    if (touch.view!=self) {
        //取到该次touch事件的view,如果不是触摸了selectorView,则隐藏selectorView.
        [UIView animateWithDuration:0.5 animations:^
        {
            self.alpha=0;
        }];
        [UIView commitAnimations];
    }
}

这样就实现了触摸任意地方,能隐藏弹出窗口的需求。相比较添加隐藏view的方案,这个方案更优雅,只是性能可能会有点损耗,但是可以通过添加全局的开关来控制发送消息的时机(比如只有当selectorView显示之后,才发送那个事件)。

总结

通过sendEvent配合消息中心,可以实现很多看起来挺复杂的功能,而且从解耦的角度,也非常优雅。

另附两个链接可供参考!http://mithin.in/2009/08/26/detecting-taps-and-events-on-uiwebview-the-right-way

http://atastypixel.com/blog/a-trick-for-capturing-all-touch-input-for-the-duration-of-a-touch/


2013-12-13 11:01:26 zhouxinfang 阅读数 337

        当一个用户发起的event发生时,UIKit创建一个event对象,该对象包含了需要处理该event的信息。然后UIKit会把该event对象添加到event队列.一个event在被分发到能够处理它的对象之前经过了很长的一段行程,首先UIApplication 会从顶层的event队列中取出一个event,然后发送给key window对象,key window对象的在这里起的作用就是根据该event的信息,找到能够处理它的最原始对象

在这里Key window通过两种方式找到能处理event的最原始的对象

Touch eventsKey window会尝试deliver这些eventtouch所产生的view上面,最终找到的viewhit-test view。这种找到hit-text view的方法叫做hit-testing

Motion and remote control events:对于这些事件,Key window会将这些事件发送给first responder对象去处理。

这两种处理event的方法的最终目标是找到一个对象能够处理所产生的event。所以,UIKit会自动根据event类型发送到合适的对象去处理该event,对于touch event,这个对象就是hit-test view,对于其他的event类型,这个对象就是first responder

Hit-Testing Returns the view where a touch occurred

IOS 使用hit-testing方法找到touch产生的viewHit-testing会检查一个touch是否发生在相关的view当中,如果是的话,会遍历该viewsubviews,在该view层次结构中最底层并且包含该touch pointview,就是所要查找的hit-test view,当检查出hit-test view后,ios就会把event传递给该view处理。

举个例子:如下图,ios根据如下顺序查找subviews

1.The touch is within the bounds of view A,so it checks subview B and C

2.The touch is not within the bounds of view B,but it is within the bounds of view C,so it checks subviews D and E.

3.The touch is not within the bounds of view D,but it is within the bounds of view E,view E is the lowest view in the view hierarchy that contains the touch,so it becomes the hit-test view.

hitTest:WithEvent;方法解析

hitTest:WithEvent方法返回hit test view,参数为CGPoint UIEvent,hitTest:WithEvent方法第一步会调用 pointInside:withEvent:方法,如果CGPoint 是在该viewbounds中时,pointInside:withEvent:返回YES,然后,该方法会在所有的子视图上递归调用hitTest:withEvent:并返回YES

如果该CGPoint不在该viewbounds中时,第一次调用pointInside:withEvent:返回NO,然后该CGPoint被忽略了,并且hitTest:WithEvent返回nil,如果有一个subview返回NO,那么整个view层次结构中的每个分支都被忽略了,因为一个touch如果不是产生在subview中,那么该subview的子subview也不可能产生。也就是说任何一个subview中的point如果是在一个superview的外面,那么该subview无法获取touch事件。当把一个subviewclipsToBounds 属性设为No时会发生这种情况。

touch event个人总结:

1.touch事件发生,创建UIEvent对象

2.按照Applicationview层次结构,逐层调用每个viewhitTest:withEvent:方法,并传入该event对象,view根据pointInside:withEvent:方法和来决定touch点是否包含在自己的bounds中;

3.如果viewbounds包含了touch点,该view会遍历自己的subview,并调用每个subviewpointInside:withEvent:方法来进一步决定touch事件是发生在自己本身,还是自己的subview上。

4.重复第二,三步,并筛选出最终接收touch事件的view对象

The Responder Chain Is Made Up of Responder Objects

许多类型的事件依赖responder chain(响应链)来传递,所谓的responder chain就是一系列的responder 对象,响应链始于first responder 结束于application对象,如果first responder不能处理一个eventios会将事件传递给响应链中的next responder

一个responder对象指能响应和处理events的对象,UIResponder 类是所有responder对象的基类,它定义的编程的接口不仅仅是为了处理event,也是为了处理常见的响应行为。UIViewController UIView UIApplication的实例都是responder对象。

first responder设计的目的是作为事件接受的第一个对象,first responder 是一个view 对象。一个对象要成为firest responder要有2个步骤。

1.重写 canBecomeFirstResponder 方法,并返回YES

2.得到 becomeFirstResponder消息,如果需要,一个对象可以给自己发送该消息

Events are not the only objects that rely on the responder chain. The responder chain is used in all of the following

Touch events:如果hit-test view不能处理touch 事件,那么事件通过响应链传递,且始于hit-test view

Text editing:当用户点击一个text field或者一个text view时,该view自动成为first responder。默认情况下虚拟键盘同时会出现,并且text field 或者text view成为编辑的焦点。

ios 事件

阅读数 116

iOS事件

阅读数 17

iOS事件

阅读数 20

iOS 之事件

阅读数 2

iOS的事件

阅读数 2

为什么80%的码农都做不了架构师?>>>...

博文 来自: weixin_34168880
没有更多推荐了,返回首页