如何优雅的追到女神夕小瑶

如果,你不小心迷恋上了小夕…


路人某:“没有如果”

v2-926075c324af803befebff054fbbe434_b.png

捕获小夕的游戏

如果现实世界中,迷恋上小夕以后,你想捕获小夕。那么发现从上帝视角来看的话,你有下面好多条路几条路达成目标( ̄∇ ̄)

v2-b663fbd01b8ec87385f34f94e5aec0ad_b.png

然而你并不是上帝。在开始的时候,你站在蓝色的圈里,然后你想了想,如果要捕获小夕的话,目前来看,应该有四种选择可以帮助你达成目标:

1、 陪A逛街

2、 陪B逛街

3、 陪C逛街

4、 陪D打LOL

但是你并不知道做完这四件事情之后有什么后果,此时你只能看到做这四件事情的成本:

1、成本为20块

2、成本为300块

3、成本为5块

4、成本为50块

于是,你准备用什么策略来达成目标呢?然后你想了想,算了,你的姐姐最近比较无聊,还是让你的姐姐替你完成这件事情吧。

于是姐姐出发了,去寻找并捕获小夕。

DFS

DFS即深度优先算法。

姐姐心里只想着赶紧完成任务,于是,她也懒得纠结啦。直接迈出第一步:花最少的钱迈出第一步!也就是5元钱,陪C逛街!

姐姐陪C逛街后,就一门心思的想走到底,看看能不能捕获小夕。于是又花5元陪C看电影!

然后又花1块钱买了瓶康师傅与C成为了朋友!

然后成为朋友后,C竟然告诉姐姐,她根本就不认识小夕!!!

姐姐非常绝望,于是从头再来!找第二便宜的路径!

(小夕贴心的把图复制粘贴了过来…

v2-b663fbd01b8ec87385f34f94e5aec0ad_b.png

于是姐姐陪A逛街去了。。。

然后姐姐陪A看了场电影。。。

然后姐姐在电影院里没有理B,因为要花10块钱给B买个爆米花才能搭讪,太贵了,不如花5块钱买个面包与A成为朋友。

然后A说“我也不认识小夕呀~~”

姐姐非常疲惫,按下了“时光倒流按钮”

时光回退了一步。这一次,姐姐在电影院的时候选择了花10块钱给B买爆米花!!!

然后又花20块钱请B喝了杯咖啡!!!

终于!B说“我认识小夕呀~来,一毛钱丢给你了”

小夕:(。 ́︿ ̀。)

姐姐非常开心的完成了任务,然而身心疲惫。。。

有一天。。。小夕趁姐姐不注意。。。溜!走!啦!

BFS

BFS即广度优先算法。

你的哥哥发现小夕溜走后,非常生气!抄起一把钞票来就出门寻找小夕了,并且发誓一定会捕获小夕的(BFS策略一定可以找到解)。

于是,哥哥开始行动了。(小夕再次贴心的将图粘贴了过来

v2-b663fbd01b8ec87385f34f94e5aec0ad_b.png

哥哥是个信息搜集狂+并行生物,于是毫不犹豫的同时勾搭了ABCD!也就是完成了陪A逛街、陪B逛街、陪C逛街、陪D打LOL。(下了血本阿…

然后!哥哥在第二步再次毫不犹豫的完成全部路线的任务,即完成陪A看电影、陪B看电影、陪C看电影、与D成为朋友!

第三步!哥哥再次下血本与A成为朋友、搭讪B、与B成为朋友(从陪B看电影的那条路径过来的)、与C成为朋友、捕获小夕。诶?等等!捕获小夕完成啦!!

并行的哥哥只用了三步就捕获了小夕!但是也是下了血本了。。。

A*

A*即A* ╮( ̄▽ ̄"")╭

这时,你看了看哥哥和姐姐的表现,非常失望。你为了证明自己是学人工智能的,或者证明自己是算法大牛,你故意将小夕放走了!

╮(╯▽╰)╭哎,毕竟哥哥和姐姐太笨了,让人无法直视。

于是,机智的你出发了。

v2-b663fbd01b8ec87385f34f94e5aec0ad_b.png

首先,你并不急着迈出第一步。而是跟ABCD瞎扯,打探信息。在你伶牙俐齿的攻势下,辅以敏捷思维,你发现:

B非常拜金,但是B张口小夕闭口小夕,肯定认识小夕(小夕一点也不拜金啊喂!)

A透漏出来她不认识小夕,但是她的人脉很广~说不定能帮助找到小夕呢。

C完全就是个女屌,也不知道小夕是谁,就想让你请她吃碗面。

D透露出来认识小夕,但是打LOL上瘾,让你陪她打一晚上LOL。

于是你开始仔细计算。。。假如迈出的这一步是B,那么肯定能够捕获小夕(找到最优点)。但是B的第一步的代价太高了啊,哪怕后续步数代价不高,那总的来说也肯定不是最优的!所以,估计了一下B的总代价=300+100=400元(那个300元是确定值,100元是你估计的值

计算A的总代价,你发现A还可以,应该能帮你捕获小夕,代价不高也不低。于是估计了一下,总代价=20+40=60元(20元为确定值,40元为估计值)

计算C的总代价,你发现虽然C的后续步数完全就不靠谱,若真能通过C捕获小夕,那肯定也得付出非常大的代价,甚至根本无法捕获小夕。于是C的总代价=5+1000=1005元(5元为确定值,1000元为估计值)

计算D的总代价,你发现D挺好说话的,总代价也好计算,得到D总代价=50+10=60元(50元为确定值,10元为估计值)

于是,你发现第一步走A和第一步走D的代价一样高,都是60元。那么直接舍弃比60元高的路,你随机选了一条,走A。

走了A之后,你发现下一步要再花50元,于是A的总代价被修正为20+50+30=100元(20元和50元为确定值,30元为估计值)

此时,你发现总代价最小的路径变了,不能再继续走A了!!!D的总代价更小!于是转而走D。

于是你走出D的第一步后,D的总代价被你修正为50+1+5=56元。依然是D最小!于是继续走D!!

走完D的第二步后!你直接看到小夕了!但你还是计算了一下!此时D的总代价为50+1+0.1=51.1元(50、1、0.1均为确定值),依然是最小代价的路径!

于是你成功捕获了小夕!

没有对比就没有伤害

我们来对比一下DFS(姐姐走的路)、BFS(哥哥走的路)、A*(你走的路),直观的感受一下三种搜索策略/算法的轨迹。

姐姐的DFS:

v2-6cfc488611c48caa4b45af51e6bcee5d_b.png 哥哥的BFS:

v2-b663fbd01b8ec87385f34f94e5aec0ad_b.png

你的A*:

v2-458e979671ebd92546637496e0eda961_b.png

有没有对A*的搜索策略赞不绝口呢~究其根本原因,DFS和BFS为无信息图搜索策略,也就是闷头走,只顾眼前,不管更远的未来

而A*则是启发式图搜索策略,利用启发式信息(就是可以用来估计后续路径花费代价的信息,在不同领域的搜索任务中,由该领域的专家制定启发式信息),用这个启发式信息来估计后续路径的代价,加上前面已知路径的代价,可以得到估计的总路径的代价。有了估算的总代价,你就可以每次都选择总代价最少的路径啦。也就是花最少的钱,去走最靠谱的路。

路人某:“看来捕获小夕并不亏啊!”

更多精彩的文章见微信订阅号【夕小瑶的卖萌屋】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481266.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

文本相似度-相似度度量

NLP点滴——文本相似度 目录 前言字面距离common lang库相同字符数莱文斯坦距离(编辑距离)定义实现方式Jaro距离定义实现方式应用SimHash定义基本流程相似性度量存储索引实现应用语义相似性背景知识统计语言模型n-gram模型词向量主题模型LSAPLSALDA应用Word2Vec神经网络语言模…

《科学》封面文章AlphaCode的重大意义及其思考

来源:陈德旺科学网博客链接地址:https://blog.sciencenet.cn/blog-57940-1368420.html程序员,虽然戏称程序猿,其实是一个高薪高智商工作,需要对问题的理解力、解决问题的创造性,还需要熟悉掌握编程语言。这…

深度学习可以与大数据分手吗?

小夕:hi,路人~你知道机器学习中数据的维度太高会带来什么问题吗?路人己:此时,如果样本量不足,会容易过拟合啊~小夕:为什么呢?路人己:这还有为什么?小夕&#…

集群化:中国基础研究发展模式的转型方向

来源:《学术前沿》作者:李侠2020年,科技部等五部门联合制定《加强“从0到1”基础研究工作方案》,旨在贯彻落实《国务院关于全面加强基础科学研究的若干意见》,其中明确指出,切实解决我国基础研究缺少“从0到…

各种损失函数比较-带你斩获offer

损失函数(Loss function)是用来估量你模型的预测值 f(x)f(x)值。2. 常用损失函数 常见的损失误差有五种: 1. 铰链损失(Hinge Loss):主要用于支持向量机(SVM) 中; 2. 互…

如果你跟夕小瑶恋爱了...(上)

如果...如果...有一天...你追到了女神夕小瑶...并且与她恋爱了...(想说“没有如果”的路人请自觉狗带( ̄∇ ̄))小夕的生活很规律的哦,小夕每天都会依次经历且仅仅经历以下6件事情:化妆-吃饭-聊天-自习-上课-要…

「返老还童」梦想成真?「NMN教父」争议研究将登陆科学顶刊

来源:机器之心逆转衰老,我们终于有了新方法?一项为时13年的研究最近又有了新的突破,事关人类最在意的问题:衰老理论。12月19日,哈佛大学遗传学教授David Sinclair在社交网络上宣布有关人类衰老研究的最新突…

对抗思想与强化学习的碰撞-SeqGAN模型原理和代码解析

GAN作为生成模型的一种新型训练方法,通过discriminative model来指导generative model的训练,并在真实数据中取得了很好的效果。尽管如此,当目标是一个待生成的非连续性序列时,该方法就会表现出其局限性。非连续性序列生成&#x…

如果你跟夕小瑶恋爱了...(下)

AB派在上一篇文章中,你成功的将“挽回夕小瑶”的任务卡进了隐马尔可夫模型(HMM)中。那么我们来规范化的整理一下已经有的信息和需要计算得到的信息。还记得这两个图嘛?这就是我们建立好的模型。(隐状态的转移图&#x…

史上最简单的隐马尔可夫模型讲解

如果... 如果...有一天...你追到了女神夕小瑶...并且与她恋爱了... (想说“没有如果”的路人请选择狗带( ̄∇ ̄)) 小夕的生活很规律的哦,小夕每天都会依次经历且仅仅经历以下6件事情: 化妆-吃饭-聊天-自习-上…

睡着了也在学习!Nature最新研究揭示运动记忆从何而来

来源:生物通Steph Curry罚球时,他的大脑会利用运动记忆。现在,加州大学旧金山分校(UCSF)的研究人员已经展示了这种类型的记忆是如何在睡眠期间得到巩固的,当大脑处理白天的学习,使做某事的物理行为成为潜意识时。Karun…

数据结构:堆(Heap)

数据结构&#xff1a;堆&#xff08;Heap&#xff09; <!-- 文章内容 --><div data-note-content"" class"show-content"><div class"show-content-free"><p>堆就是用数组实现的二叉树&#xff0c;所有它没有使用父指针…

BAT机器学习面试1000题系列

1、本文的内容全部来源于七月在线发布的BAT机器学习面试1000题系列&#xff1b; 2、文章中带斜体的文字代表是本人自己增加的内容&#xff0c;如有错误还请批评指正&#xff1b; 3、原文中有部分链接已经失效&#xff0c;故而本人重新加上了新的链接&#xff0c;如有不当&…

拉马努金:“与神对话”的数学天才

来源&#xff1a;微信公众号“图灵教育”撰文&#xff1a;[英] 马库斯杜索托伊翻译&#xff1a;柏华元当哈代和利特尔伍德步履维艰地穿越陌生的黎曼图景时&#xff0c;在5000英里外的印度马德拉斯港务局内&#xff0c;一个名叫斯里尼瓦瑟拉马努金的年轻办事员被素数的神秘莫测吸…

浅入深出被人看扁的逻辑回归!

好像在各种机器学习入门教程中&#xff0c;逻辑回归模型&#xff08;Logistic/Logit Regression&#xff09;经常被拿来作为入门的机器学习模型&#xff0c;比如我家的Andrew Ng就是这样做的。看起来&#xff0c;逻辑回归模型实在太简单&#xff0c;甚至容易被认为是一个拍脑袋…

全球Web3技术产业生态发展报告(2022年)

来源&#xff1a;中国信息通信研究院编辑&#xff1a;蒲蒲Web3不只是互联网应用层的简单创新&#xff0c;可能会带来互联网体系架构整体性演进和系统性升级。党中央、国务院高度关注下一代互联网创新发展&#xff0c;在关键核心技术突破、新型基础设施建设、融合创新应用赋能等…

算法工程师笔试 -剑指offer-习题详细解答

说明 主要编程语言为 C/C涉及字符串的问题可能会使用 Python题目编号以原书为准&#xff0c;如“面试题 3&#xff1a;数组中重复的数字” 因为题目不多&#xff0c;所以就不做分类了 所有代码均通过 OJ 测试 在线 OJ 地址&#xff1a;剑指Offer_编程题 - 牛客网 Reference 《…

深入深出Sigmoid与Softmax的血缘关系

缘起逻辑回归逻辑回归模型是用于二类分类的机器学习模型&#xff08;不要说逻辑回归可以做多类分类啊喂&#xff0c;那是二类分类器的组合策略问题&#xff0c;而与逻辑回归分类器本身的构造没有半毛钱关系啊&#xff09;。我们知道&#xff0c;在逻辑回归中&#xff0c;用于预…

科学家使用机器学习获得前所未有的小分子视图

编辑 | 绿萝数以千计的不同小分子&#xff08;称为代谢物&#xff09;在整个人体中传输能量和传递细胞信息。由于它们非常小&#xff0c;因此很难在血液样本分析中将代谢物彼此区分开来——但识别这些分子对于了解运动、营养、饮酒和代谢紊乱如何影响健康非常重要。尽管在过去十…

【Brain】脑洞从何而来?加州大学最新研究:有创造力的人神经连接会「抄近道」...

来源&#xff1a;量子位为什么有的人更富创造力&#xff1f;总能想到别人不会想到的东西&#xff0c;做别人想不到做的事&#xff1f;最近&#xff0c;这个问题的答案被找到了&#xff1a;有创造力的人&#xff0c;大脑里的神经活动会“抄近道”。加州大学洛杉矶分校的研究人员…