精华内容
下载资源
问答
  • 一看就懂的Alpha-Beta剪枝算法详解

    万次阅读 多人点赞 2016-07-10 17:49:49
    看了很多帖子,都没这个帖子讲的清楚.Alpha-Beta剪枝搜索是棋类走子计算的首选算法,由于估值函数问题,不适用于围棋

    原贴:http://blog.csdn.net/tangchenyi/article/details/22925957

     

     

    Alpha-Beta剪枝算法(Alpha Beta Pruning)

    [说明] 本文基于<<CS 161 Recitation Notes - Minimax with Alpha Beta Pruning>>,文中的图片均来源于此笔记。

     

    Alpha-Beta剪枝用于裁剪搜索树中没有意义的不需要搜索的树枝,以提高运算速度。

     

    假设α为下界,β为上界,对于α ≤ N ≤ β:

    若 α ≤ β  则N有解。

    若 α > β 则N无解。

     

    下面通过一个例子来说明Alpha-Beta剪枝算法。

     

    上图为整颗搜索树。这里使用极小极大算法配合Alpha-Beta剪枝算法,正方形为自己(A),圆为对手(B)。

    初始设置α为负无穷大,β为正无穷大。

    对于B(第四层)而已,尽量使得A获利最小,因此当遇到使得A获利更小的情况,则需要修改β。这里3小于正无穷大,所以β修改为3。

     

    (第四层)这里17大于3,不用修改β。

    对于A(第三层)而言,自己获利越大越好,因此遇到利益值大于α的时候,需要α进行修改,这里3大于负无穷大,所以α修改为3

     

    B(第四层)拥有一个方案使得A获利只有2,α=3,  β=2, α > β, 说明A(第三层)只要选择第二个方案, 则B必然可以使得A的获利少于A(第三层)的第一个方案,这样就不再需要考虑B(第四层)的其他候选方案了,因为A(第三层)根本不会选取第二个方案,多考虑也是浪费.

    B(第二层)要使得A利益最小,则B(第二层)的第二个方案不能使得A的获利大于β, 也就是3. 但是若B(第二层)选择第二个方案, A(第三层)可以选择第一个方案使得A获利为15, α=15,  β=3, α > β, 故不需要再考虑A(第三层)的第二个方案, 因为B(第二层)不会选择第二个方案.

    A(第一层)使自己利益最大,也就是A(第一层)的第二个方案不能差于第一个方案, 但是A(第三层)的一个方案会导致利益为2, 小于3, 所以A(第三层)不会选择第一个方案, 因此B(第四层)也不用考虑第二个方案.

    当A(第三层)考虑第二个方案时,发现获得利益为3,和A(第一层)使用第一个方案利益一样.如果根据上面的分析A(第一层)优先选择了第一个方案,那么B不再需要考虑第二种方案,如果A(第一层)还想进一步评估两个方案的优劣的话, B(第二层)则还需要考虑第二个方案,若B(第二层)的第二个方案使得A获利小于3,则A(第一层)只能选择第一个方案,若B(第二层)的第二个方案使得A获利大于3,则A(第一层)还需要根据其他因素来考虑最终选取哪种方案.

     

     

     

     

    展开全文
  • Alpha叠加

    千次阅读 2016-03-03 09:05:10
    Alpha值的含义对于 RGBA(或 BGRA )数据, Alpha 通道中存储的 Alpha 值,实际上应该是 Opaque 值,即不透明度。当 Alpha 值为 255 时,表示不透明; Alpha 值为 0 时,表示全透明。

    学习过程中的记录,供参考。

    foruok原创,转载请保留出处。欢迎关注微信订阅号“程序视界”。

    Alpha值的含义

    对于 RGBA(或 BGRA )数据, Alpha 通道中存储的 Alpha 值,实际上应该是 Opaque 值,即不透明度。当 Alpha 值为 255 时,表示不透明; Alpha 值为 0 时,表示全透明。

    Alpha 值也经常用 0 ~ 1 这个区间的数字来表示。 0 表示全透明, 1 表示不透明。详见这里:https://en.wikipedia.org/wiki/Alpha_compositing

    直接 Alpha 和预乘 Alpha 的区别

    Alpha 模式有两种,直接 Alpha 和预乘 Alpha 。

    使用直接 Alpha 描述 RGBA 颜色时,颜色的 Alpha 值会存储在 Alpha 通道中。例如,若要描述具有 60% 不透明度的绿色,请使用以下值:(0 , 255 , 0 , 255 * 0.6) = (0 , 255 , 0 , 153)。值 255 指示全绿, 153(255 的 60%)指示颜色应具有 60% 的不透明度。

    使用预乘 Alpha 描述 RGBA 颜色时,每种颜色都会与 Alpha 值相乘:(0 * 0.6, 255 * 0.6 , 0 * 0.6 , 255 * 0.6) = (0 , 153 , 0 , 153)。同时 Alpha 值也会存储在 Alpha 通道中。

    RGBA图像数据叠加

    我只考虑一幅带 Alpha 效果的图像叠加在背景上的情况。

    假设背景图像是 B ,无透明效果,带透明效果的图像是 A ,那么透过 A 去看 B ,看上去的图象 C 就是 A 和 B 的混合图象。

    假设 A 图像的透明度为 alpha ,则图像 C 的混合公式如下:

    R(C) = alpha * R(A) + (1 - alpha) * R(B)
    G(C) = alpha * G(A) + (1 - alpha) * G(B)
    B(C) = alpha * B(A) + (1 - alpha) * B(B)
    A(C) = 1
    

    混合后的图像 C 的Alpha值为 1 ,所以后面的代码里,直接将结果的 Alpha 值设置为 0xFF 。

    基于于 Skia 和 PPAPI 的图像叠加代码

    我的一个 PPAPI+Skia 示例,使用 Skia 的 SkBitmap 作为后端来绘图,然后再把 SkBitmap 的数据叠加到 PPAPI 的图像数据上。下面是部分代码:

    static void blendFromBgraToRgba(void *srcData, void *destData, struct PP_ImageDataDesc &desc)
    {
        unsigned char *src = (unsigned char*)srcData;
        unsigned char *dst = (unsigned char*)destData;
        int len = desc.size.height * desc.stride;
        for (int i = 0; i < len; i += 4, src += 4, dst += 4)
        {
            switch(src[3])
            {
            case 0:
                //do nothing
                break;
            case 255:
                dst[0] = src[2]; //Red
                dst[1] = src[1]; //Green
                dst[2] = src[0]; //Blue
                break;
            default:
                dst[0] = (((int)dst[0]) * (255 - src[3])) / 255 + src[2]; //Red
                dst[1] = (((int)dst[1]) * (255 - src[3])) / 255 + src[1]; //Green
                dst[2] = (((int)dst[2]) * (255 - src[3])) / 255 + src[0]; //Blue
                break;
            }
            dst[3] = 0xFF;
        }
    }
    
    void XXX::init()
    {
        ...
        PPB_ImageData * d;
        d->Describe(m_image, &m_image_desc);
        m_pixels = d->Map(m_image);
        ...
        SkImageInfo ii = SkImageInfo::Make(m_image_desc.size.width, 
                m_image_desc.size.height,
                kBGRA_8888_SkColorType,
                kPremul_SkAlphaType,
                kLinear_SkColorProfileType);
        m_bitmap = new SkBitmap();
        m_bitmap->allocPixels(ii, m_image_desc.stride);
        ...
    }
    
    void XXX::paint()
    {
        ....
        void *skiaPixels = m_bitmap->getPixels();
        blendFromBgraToRgba(skiaPixels, m_pixels, m_image_desc);
        ...
    }
    

    代码有很多可以优化的地方。

    参考链接


    就这样吧。

    其他参考文章详见我的专栏:【CEF与PPAPI开发】。

    展开全文
  • AlphaStar

    千次阅读 2019-12-02 11:10:02
    AlphaStar北京时间2019年01.24凌晨2:00,DeepMind的伦敦总部,《星际争霸2》游戏人工智能AlphaStar首秀。DeepMind是全球人工智能领军,AlphaGo和AlphaZero的创造者,这里就不多介绍了。星际2作为一款当今世界最复杂...

    AlphaStar

    北京时间2019年01.24凌晨2:00,DeepMind的伦敦总部,《星际争霸2》游戏人工智能AlphaStar首秀。DeepMind是全球人工智能领军,AlphaGo和AlphaZero的创造者,这里就不多介绍了。星际2作为一款当今世界最复杂的即时战略游戏,含经济运营,兵伐诡道,战争迷雾以及瞬息万变的策略,自2016年起,就被DP当做一个攻克目标。相比之下,围棋棋盘是固定的,双方是摊开了局面战斗;而星际2类似于真实战争,作战双方不知道对方的经济详细情况和所有战略战术—-一句话,战场无法预测,没有套路!

    星际2解说 Artosis 与 Rotterda全程解说。首先问了暴雪的游戏总监Tim Morten:“为什么那么热切和DeepMind合作?”

    答:“星际2是当今水平最高竞技游戏,也是人工智能研究的里程碑。”

    “暴雪作为合作伙伴意味着什么?”

    答:“我们团队非常困难地开发了一款特殊版本的星际2,作为工具公开发布,同时也和SP紧密合作。这个特殊版本和普通版不同,但是规则相同,适合SP研究。最大的不同就是,我们在游戏研究中必须大量预先设置比如live surfing,所以我们今天将观看的都是比赛回放录播,你知道,实时比赛必须从选手视角直播。”

    Artosis接着问了DP的研究合作领导Oriol Vinyals:“为什么选择星际作为AI研究目标?”

    答:“DP的研究任务就是人工智能,所以找一个检验标准很重要,在开展任务之前,用来检验算法和Agent。这是我们研究的第一个电脑游戏,就像围棋那样 。但星际和其它游戏相比它最突出的挑战就是,很明显下一步对我们的AI Agent来说,挑战的等级很高,我在这个图里高光标注了。”

    640?wx_fmt=png

    首先是“信息类型”不完美,意思是Agent不知道也无法预测人类选手现在在做什么。不像围棋,如果你不是大师,将容易输掉比赛。正如我展示的,这对我们是个很大的挑战。”

    Oriol接着说了过去两年DP做了什么样的研究。他们并不是第一个意识到星际是AI中一个重要研究领域的团队,下面图中可以看到过去15年AI发展历程。2003年即时战略游戏RTS就被视作AI研究方向,2009年就有开源机构研究第一版星际Blood War。过去八年取得不少进展,许多团队开发了Bot和Agent玩游戏,并且玩得不错。他也亲自参与了早期的游戏竞赛AIIDE,甚至被要求作为职业玩家和其他Bot对抗,还因此发现了bug。

    PS:2015年已有关于星际Bot的论文 StarCraft Bots and Competitions。

    https://www.researchgate.net/publication/304919439_StarCraft_Bots_and_Competitions

    640?wx_fmt=png

    AlphaStar早期就公开资源和工具,每个人都能参与。整个团队做了巨大的努力,才开发了能全程完整玩星际的第一个版本。

    接下来Rotterda对Oriol的访问,就是今天比赛录像的相关科普了。

    比赛都是2018年12月进行的,只有一张1v1地图上:Catalyst LE。神族VS神族。赛制五局三胜。

    640?wx_fmt=png

    接着第一个人类玩家Dario Wünsch(TLO )出场,来自暴雪推荐给DP做合作的职业战队Liquid。他是个德国职业虫族玩家。

    TLO说了下他和DP合作的起因,并和Oriol讨论过如何让比赛公平。Rotterda也问了我们观众要问的:“作为虫族玩家,比赛中用神族什么感觉?”

    答:“我做了大量的赛前准备,玩了100多场神族,不算专业级别,但在星际天梯赛里也算Top 1%水平了。”

    今天将播放TLO和AlphaStar之间五场比赛中的两场,人类捍卫尊严的比赛回放正式开始!

    TLO vs AlphaStar

    第一场

    作为星际爱好者,我看不出AI开局和人类玩家有什么不同:造水晶,建筑,probe探路,侦查敌情,前期小骚扰。前五分钟,双方资源人口以及兵力相差不大,AI略为优势。

    640?wx_fmt=png

    第五分钟开始,AI开始追猎正面压制TLO的第二基地,双方互秀了一波微操作。但AI的造兵能力这时开始显现,第六分钟兵力已是TLO近乎三倍(28:10)。AI持续优势兵力压制,TLO开始拉上probe抵抗,开局7:06时,TLO打出了gg。

    解说员惊诧了,请出DP的研究合作领导David Silver,他说DP是经过几个月研究后才第一次打败人类职业选手。TLO吐槽自己都不知怎么回事,但作为神族的确犯了一些错误。但即使第一场失败,他当时还是非常自信能赢下一场。

    APM

    解说员 Artosis开始询问APM(Action Per Minute),玩家操作手速–这也是观众的的疑问,万一比赛规则不对等怎么办,毕竟电脑的APM可以每秒无上限啊。David 解释,他们做了公平性处理,让AI模拟人类玩家手速。从下图可以看出,AI的APM中数平均值是低于人类选手的。况且星际并不是靠手速获胜的,而是靠策略。

    640?wx_fmt=png

    有的观众抓图说AI的APM有时远超人类,比如下图。

    640?wx_fmt=png

    但我仔细看了回放,战斗时双方APM几乎是持平的,而且人类也会高于AI,这一块是相对公平的。

    640?wx_fmt=png

    AI游戏视角(战争迷雾)

    David 接着解释AI是以什么样的视角来玩游戏的,并不是我们想的地图全开的模式。类似于上帝视角模式,AI会鸟瞰整个地图,但它的所有视觉只限于它的移动单位所能看到的当前视野的合集,其它地区还是被战争迷雾所覆盖。

    640?wx_fmt=png

    人类玩家在操作单位并展现其可视区域时,会做其它的区域点击操作,比如资源掌控,兵力生产时会移动玩家的可视区域。DP分析了这些,模拟了人类这些视觉切换操作,最终设置了AI现有的APM。

    Oriol说AI不关心当下发生了什么,不像人类有输赢的概念以及心情变化,所以五场比赛对AI来说都是独立的。TLO接着说了他第二场比赛失利的过程,他采取的防御式打法未能奏效。

    第三场

    这局TLO坚持到了中前期间,比赛中AI用裂光球神乎其神,几乎弹无虚发,非常有效地大量杀伤了TLO的部队。双方在路口拉锯式作战,AI的操作非常强,稍有劣势就后撤,稍有优势就压制,经常有神操作出现。TLO也采取了空投骚扰,小股部队潜入等战术,对战局未产生影响。AI的总人口,资源,兵力,始终都是压制TLO的,14分钟是,AI的兵力几乎是TLO的两倍,胜利天平很明显倾向AI。两分钟后TLO打出gg。

    640?wx_fmt=png

     

    AlphaStar League

    DP是如何训练AI的,David 做了解释。DP称此训练过程为AlphaStar联赛,第一步,学习数据来自人类在星际联赛里的比赛数据。用神经网络学习这些数据,然后每一个子状况,新的Agent会fork它,包括之前的Agent,加入到AlphaStar联赛内。

    640?wx_fmt=png

    联赛之间的Agent再互相PK,学习。

    640?wx_fmt=png

    这样神经网络就会持续升级。

    640?wx_fmt=png

    神经网络升级到最终选出某个阶段,某个策略可以打败其它所有策略。

    640?wx_fmt=png

    神经网络 继续升级。

    640?wx_fmt=png

    过程中加上额外配置Personal Learning Ojbect 个人学习模块,比如某些特殊的操作,生产某些特殊兵种,最终学习得出最优策略。

    640?wx_fmt=png

    最后产生五个Agent用于比赛,TLO等于是在和五个不同的顶级选手在打比赛。

    640?wx_fmt=png

    AlphaStar学习了大量人类选手各类奇特打法,比如农民快攻,炮台快攻。每场比赛的Agent都是预先设置好的,不会随着比赛动态适应并变化。相当于一个人在一场比赛中用固定战术在和TLO打。AlphaStar总共花了七天学习人类联赛,第一阶段学了三天,学习的是联赛白金选手的比赛。这七天的学习数据量,相当于人类学习200年!

     

    MaNa vs AlphaStar

    Oriol分享了DP开发团队的对此站胜利喜悦,他表示团队在短暂庆祝之后将再接再厉。接着顶级玩家MaNa上场,波兰人,真正的神族玩家。

    但作为神族选手,他好像也没有占什么优势,先输了两局(没有播出)。DP团队做了个视觉流程图来解释神经网络激活原理,对原理感兴趣的最好去看这一段原视频解说或者DP科普文。

    https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

    640?wx_fmt=gif

    第三局

    前期MaNa发展正常,但硬抗AI的兵力压制非常辛苦,双方实力差不多持平。但五分钟后AI的空军出现后,占局就逐渐向AI有利的方向发展了,人类几乎之后被按着在地上摩擦,8:02 MaNa打出gg。

    第四局

    MaNa这局表现得很强势,但是短兵相接时,AI对追猎的微操作太强了,红血的追猎被不停地瞬移到阵型后方,人类很难对AI的部队造成战斗减员。导致AI兵力越来越多,人类兵力越打越少,12:48,人类gg。

    不出所料,MaNa也输了之后的最后一局。

    至此人类10:0全军覆没。

    看到这我有点纠结,从人类玩家角度,非常沮丧,我还不愿相信AI能在星际这种策略无穷的游戏中获胜;但做为程序员,我又很高兴看到AI技术发展的这一个巨大的里程碑。

    这时直播中间插播了一段DP开发团队的采访记录,以及日常开发视频,很有热血感染力。

     

    人类挽回一点颜面

    直播最后,加赛一场,DP更改了AI的之前的上帝视角模式,改成游戏玩家视角模式。就是说AI模拟Agent“看到”的视觉范围和人类类似,只是面前这个屏幕大小而已。还特别强调了这个技术还未成熟,处于测试阶段(可能意思是就算输了,人类也别高兴)。

    MaNa终于在这局为人类挽回了一点颜面,通过大量偷袭一步步占据优势,最终大获全胜。但比赛中明显看出AI在调兵遣将上出现了很大的失误,很可能因为这是测试版?

    我和同是星际爱好者的码农朋友讨论了下。

    1. AI的APM设置可以说公平。

      AI上帝视角对于顶级玩家来说也不算太大优势,因为他们非常关注左下角鸟瞰地图[下图]和游戏中的声音预警。但也有朋友认为最后一场的AI游戏玩家视角,才算真正公平,因为来回切换视角很费时。

    640?wx_fmt=png

    1. 这十盘比赛前期ai都是靠微操作碾压人类,人类由于生理极限不能长期维持亢奋状态,无法撑到发挥人类战略大局观的优势的中后期。

    2. 比赛二位选手都是欧洲玩家,与亚洲玩家比,欧洲玩家大多胜在资源掌控和大局观,欧亚对抗赛中欧洲玩家经常后期翻盘。如果换成亚洲玩家,可能第3点上前期AI不占优势。

    3. 比赛五局中,人类每局都相当于在和不同的Agent打,这也算公平,毕竟职业玩家都有私藏多种杀手锏,相当于一个人用了五种打法。

     

    赛后

    DeepMind创始人,AlphaGo之父Demis Hassabis在推特上发文,满是掩饰不住的骄傲:这是游戏人工智能的一个里程碑,第一个干掉人类顶级选手的系统,这展示了我们的牛逼,我们也测试了新的产品原型:游戏玩家视角接口。谢谢选手MaNa,我们将继续努力。星际是个非常复杂的游戏,我很激动,因为AlphaStar背后的技术可以应用于很多场景,比如天气预报以及天气模型等…….相关论文将很快发布

    640?wx_fmt=png

     

    期待

    WCS星际争霸2全球总冠军芬兰选手Serral将于2月15日,为了人类尊严与AlphaStar决战。谁胜谁负,我们拭目以待。

    所有比赛录像可以下载:https://deepmind.com/research/alphastar-resources/

    关于AlphaStar的研究资料:https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

    640?wx_fmt=jpeg

    640?wx_fmt=jpeg

    640?wx_fmt=jpeg

    展开全文
  • Alpha Go及Alpha Zero的算法分析 PS:这只是一次作业,然后参考了各大博主以及论文原文之后,然后总结对于Alpha Go及Alpha Zero的算法的理解,如有错误之处,还望各位大佬指出并提出建议。谢谢! ...

    Alpha Go及Alpha Zero的算法分析

    PS:这只是一次作业,然后参考了各大博主以及论文原文之后,然后总结对于Alpha Go及Alpha Zero的算法的理解,如有错误之处,还望各位大佬指出并提出建议。谢谢!
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 什么是alpha测试 Α (ALPHA) Alpha is the first and foremost letter of the Greek alphabet. In the classification of Greek numerals or numbers, it constitutes a value of 1. Alpha是希腊字母的第一个也是最...
  • AlphaPose】AlphaPose运行环境搭建与测试

    千次阅读 热门讨论 2020-05-20 11:36:24
    AlphaPose项目地址 AlphaPose是一种精确的多人姿势估计器,其运行环境的搭建相较于OpenPose而言更加简便。 搭建步骤 官方安装步骤 这里我选用官方推荐的conda进行安装测试。 安装anaconda 利用conda创建虚拟环境:...
  • Alpha混合模式:直接 Alpha 和预乘 Alpha  2011-08-08 19:38:30| 分类: 定期查阅|字号 订阅 支持的像素格式和 Alpha 模式 http://msdn.microsoft.com/zh-cn/library/dd756766(v=VS.85).aspx#...
  • ALPHA语言

    千次阅读 2018-05-05 22:15:03
    ALPHA语言主要有GET、PUT、HOLD、UPDATA、DELETE、DROP6条语句,语句的基本格式为: 操作语句 工作空间命名 (表达式):操作条件 (1)查询所有被选修的课程号码 GET W (SC.Cno) (2)查询所有学生的数据...
  • alpha beta测试Here you will learn about difference between alpha and beta testing. 在这里,您将了解Alpha和Beta测试之间的区别。 We might have come across these terms while studying or even at our ...
  • Alpha To Coverage

    千次阅读 2016-11-09 15:13:35
    Opengles3.0新增加了一个Alpha To Coverage的特性,这是一个对Alpha Test的优化,那么这里要搞清楚Alpha to Coverage 是个什么东西。 AlphaTest 和AlphaBlend都可以用来表现(全)透明的效果,对于草,树这种,我们...
  • AlphaBlend

    2015-04-03 16:45:08
    AlphaBlend实现透明效果,不过只能针对某块区域进行alpha操作,透明度可设。 TransparentBlt可以针对某种颜色进行透明,不过透明度不可设。   AlphaBlend: BLENDFUNCTION bn; bn.AlphaFormat = 0; ...
  • netty 5.0.0 Alpha2

    2015-05-21 15:09:21
    netty 5.0.0 Alpha2,netty新版本,修复alpha1的很多bug
  • Alpha多样性

    2020-07-18 22:53:17
    Alpha多样性指数 Alpha多样性用于分析样品内(Within-community)的微生物群落多样性,可以反映样品内的微生物群落的丰富度和多样性。 alpha多样性指数包括丰富度、多样性、均一性等。 丰富度指数只是简单的估算群落中...
  • 【Unity Shaders】Alpha Test和Alpha Blending

    万次阅读 多人点赞 2014-11-29 21:55:10
    写在前面关于alpha的问题一直是个比较容易摸不清头脑的事情,尤其是涉及到半透明问题的时候,总是不知道为什么A就遮挡了B,而B明明在A前面。这篇文章就总结一下我现在的认识~Alpha Test和Alpha Blending是两种处理...
  • Alpha预乘(Premultiplied Alpha)和PRGBA一般来说四通道图像数据保存的都是ARGB或RGBA,其R、G、B值还没有进行任何透明化处理,但这种格式在图像合成时会存在两个问题:由于对有Alpha通道的图片进行合成处理时,先要...
  • Alpha

    万次阅读 2013-09-06 16:00:08
    Alpha值 http://www.cnblogs.com/graphics/archive/2012/08/27/2654828.html Alpha混合是为了实现透明效果,透明到什么程度是由alpha值决定的,对于一个32位的ARGB格式的颜色来说,它的组成部分如下:   我们...
  • 当顶图层下有多个图层是,要开始遮罩,可以在混合模式中选择模板alpha,这样就可以下边的图层都被遮罩起来都能显示 轮廓alpha是模板alpha的反相,遮罩外部区域显示 ...
  • 前两篇分别学习了Vertex alpha和Material alpha,今天来研究一下Texture alpha,所谓Texture alpha就是使用Texture的alpha通道进行混合,这需要texture包含alpha通道。所以首先要为texture添加alpha通道。 为...
  • Alpha-Beta剪枝算法(Alpha Beta Pruning)

    千次阅读 2018-05-11 14:49:10
    CS 161 Recitation Notes - Minimax with Alpha Beta Pruning CS 161 Recitation Notes - Minimax with Alpha Beta Pruning The minimax algorithm is a way of finding an optimal move in a two player g...
  • Premultiplied Alpha

    千次阅读 2014-12-15 11:47:19
    Premultiplied Alpha alpha预乘,与通常颜色表示方法(r,g,b,a)的差别在与它表示为(ar,ag,ab,a)。为什么要这么做呢?因为在颜色混合时,预乘的效果比分开表示更好。比如(1,1,1,1)与(0,0,0,0)混合后,(0.5,0.5,0.5,...
  • Alpha-Beta剪枝(Alpha Beta Pruning)

    万次阅读 多人点赞 2014-04-04 14:11:14
    Alpha-Beta剪枝算法(Alpha Beta Pruning)
  • Alpha系列总结

    千次阅读 2018-08-09 14:42:22
    主要介绍:AlphaGo、AlphaZero Go和AlphaZero (1)AlphaGo:DoubleDQN的思想用在围棋上,分为两个网络,一个是策略网络输出下一步落子位置的概率,另一个是价值网络对每个可能落子位置评估胜率。 (2)AlphaGo ...
  • WolframAlpha安卓版中文最新版是一款非常强大的计算知识的引擎,当我们在这款软件中进行问题搜索的时候,它将会直接给出答案,有的题目还会给出解答过程,这样我们就再也不用不断的点击不同的网页,寻找自己需要的...
  • Alpha混合通常是为了实现透明效果,透明效果的程度通过alpha值来控制,对于一个8bit的alpha chanel,可以产生0-255级透明效果,0表示完全透明,255表示完全不透明,在D3D中alpha值的来源主要有三种 顶点材质纹理 ...
  • Alphapose配置

    千次阅读 热门讨论 2019-04-24 09:20:44
    对于人体骨架数据提取,从Openpose到Alphapose,对人少的场景都做出了很好的性能,港中文AAA12018的ST-GCN(https://arxiv.org/abs/1801.07455) 在Openpose的基础上,使用时空图卷积网络进行了简单动作识别,准确...
  • OpenCV: Alpha融合

    千次阅读 2019-04-18 17:53:39
    Alpha融合 Alpha融合是一种将前景通过透明度叠加到背景上的过程。透明度通常是图像的第四通道,当然也可以被分离出来成为一个单独的图像。这个透明的掩模通常被称为alpha掩模。 在上述图片中,左上是前景图片;右上...
  • Alpha Test 特性 Alpha Test是是OpenGLES1.1特有的呈现管道阶段 简单来说就是以一个参考值去比对需要渲染的像素的值,如果效验出问题的话,就会直接放弃这个像素。Alpha Test是不需要关闭ZWrite的。 Why 参考内容:...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 90,393
精华内容 36,157
关键字:

alpha