家中狗子都在想些啥,科学家们利用机器学习搞清楚了
Posted QbitAl
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了家中狗子都在想些啥,科学家们利用机器学习搞清楚了相关的知识,希望对你有一定的参考价值。
Alex 发自 凹非寺
量子位 | 公众号 QbitAI
铲屎官们有没有想过,每天向你撒娇、求投喂的狗狗,它脑海里究竟在想什么?
为什么有时候投入大把精力养熟的狗子,转头就可以扑向别人的怀里?
其实,狗狗这么做并不故意是要气你——
一项来自埃默里大学的实验表明:狗狗对世界的看法可能与我们截然不同。
人类更关注对象,但狗子却不太关心看到的到底是谁或什么物体,而更在意动作本身。
所以按理来说,谁对狗子好它就可以亲近谁。(当然,别忘了狗子嗅觉灵敏,许多狗狗也很认主)
此外,狗和人类的视觉系统也有很大差异,它们只能看到黄蓝色调,但有一个灵敏的视觉感受器,用来观察运动。
这项实验采用了机器学习来弄清楚狗子的大脑活动,相关论文已在The Journal of Visualized Experiments上发表。
研究者指出,这种方法有一个明显的好处:就是无创。
而此方法之前只在灵长动物身上用过,所以这次在狗狗身上的实验算是一个重大突破。
下面就来看看具体体验过程。
对比狗和人的大脑活动
研究者通过机器学习和fMRI(功能磁共振成像),来探索狗狗看到不同类视频时的大脑活动。
至于为什么要选狗子而非其他动物?
因为狗子是一种比较好教的动物,通过一定训练后可以乖乖配合MRI(核磁共振)扫描,而不需要注射镇静剂或使用其他约束方法。
不过尽管狗狗相对听话,但要在本研究中,它们除了要参与MRI扫描,还要长时间观看视频。所以最终只有2只狗入选,一只是4岁的雄性拳师混血犬,另一只11岁的雌性波士顿梗混血犬。
△狗狗正在看视频
每只狗狗看了三组不同的视频,每组视频时长30分钟,共计256个视频片段。为了控制变量,这些视频都没有声音。
其中一些视频主要展示不同的物体(如:人、狗、汽车),另一些视频则侧重于展示不同的动作(如:玩耍、吃东西、闻气味)。
为了作比较,两名人类志愿者也以同样的程序观看了这些视频片段。
在志愿者和狗狗看视频的同时,研究人员用3T核磁共振扫扫描仪记录了他们的大脑活动图像。
然后他们使用神经网络,训练并测试了3个分类器(classifier),以区分“物体”和“行动”。
诶,为啥不是2个而是3个?
因为关于行为的分类器中,一个是在3种不同动作上训练的,另一个则学习了5种动作。
结果显示,人脑对物体和动作都有不错的反应,而狗狗的大脑只对动作敏感,对于不同的人、物,它们似乎并不感冒。
△左为人脑MRI图,右为狗脑MRI图
为了评估模型性能、让数据更有说服力,研究者还用了Ivis机器学习算法对收集的数据进行量化。
从人类志愿者的数据来看,这些模型在将其大脑活动数据映射到不同分类器上时,准确性都超过99%。
而在对狗的大脑数据进行解码时,该模型对基于物体的分类器基本不起作用;不过对于基于行为的分类器来说,准确率可达60%至88%。
由此可见,狗狗的思维方式和我们还是有很大区别的!
研究者简介
研究者来自埃默里大学心理学系。
论文一作Erin M. Phillips,现为普林斯顿大学生态学和进化生物学系的在读博士研究生。
她作为访问学者来到埃默里大学,并参与了这项研究。
论文的共同作者Gregory S.Berns,现任埃默里大学教授,主要研究方向为人类决策的神经影像、狗的fMRI,以及比较神经生物学。
Berns教授本科毕业普林斯顿大学物理学系,并先后获得2个博士学位:生物医学工程博士以及医学博士。
Berns认为,狗狗更关注动作其实是可以理解的,因为动物天生需要非常关注环境中的变化,以此来捕猎或者避免被吃掉。
虽然在本次研究中,最终只有2只狗参与,不过研究者未来还会对更多狗子以及其他动物展开实验,探索动物们是如何感知世界的。
论文地址:
https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog
参考链接:
https://www.eurekalert.org/news-releases/964886
以上是关于家中狗子都在想些啥,科学家们利用机器学习搞清楚了的主要内容,如果未能解决你的问题,请参考以下文章