互联网爱好者创业的站长之家 – 南方站长网
您的位置:首页 >微商 >

狗狗:家中狗子都在想些啥,科学家们利用机器学习搞清楚了

时间:2023-01-30 13:45:59 | 来源:

今天,分享一篇家中狗子都在想些啥,科学家们利用机器学习搞清楚了,希望以下家中狗子都在想些啥,科学家们利用机器学习搞清楚了的内容对您有用。

铲屎官们有没有想过,每天向你撒娇、求投喂的狗狗,它脑海里究竟在想什么?

为什么有时候投入大把精力养熟的狗子,转头就可以扑向别人的怀里?

其实,狗狗这么做并不故意是要气你 ——

一项来自埃默里大学的实验表明:狗狗对世界的看法可能与我们截然不同。

人类更关注对象,但狗子却不太关心看到的到底是谁或什么物体,而更在意动作本身。

所以按理来说,谁对狗子好它就可以亲近谁。(当然,别忘了狗子嗅觉灵敏,许多狗狗也很认主)

此外,狗和人类的视觉系统也有很大差异,它们只能看到黄蓝色调,但有一个灵敏的视觉感受器,用来观察运动。

这项实验采用了机器学习来弄清楚狗子的大脑活动,相关论文已在 The Journal of Visualized Experiments 上发表。

研究者指出,这种方法有一个明显的好处:就是无创。

而此方法之前只在灵长动物身上用过,所以这次在狗狗身上的实验算是一个重大突破。

下面就来看看具体体验过程。

研究者通过机器学习和 fMRI(功能磁共振成像),来探索狗狗看到不同类视频时的大脑活动。

至于为什么要选狗子而非其他动物?

因为狗子是一种比较好教的动物,通过一定训练后可以乖乖配合 MRI(核磁共振)扫描,而不需要注射镇静剂或使用其他约束方法。

不过尽管狗狗相对听话,但要在本研究中,它们除了要参与 MRI 扫描,还要长时间观看视频。所以最终只有 2 只狗入选,一只是 4 岁的雄性拳师混血犬,另一只 11 岁的雌性波士顿梗混血犬。

每只狗狗看了三组不同的视频,每组视频时长 30 分钟,共计 256 个视频片段。为了控制变量,这些视频都没有声音。

其中一些视频主要展示不同的物体(如:人、狗、汽车),另一些视频则侧重于展示不同的动作(如:玩耍、吃东西、闻气味)。

为了作比较,两名人类志愿者也以同样的程序观看了这些视频片段。

在志愿者和狗狗看视频的同时,研究人员用 3T 核磁共振扫扫描仪记录了他们的大脑活动图像。

然后他们使用神经网络,训练并测试了 3 个分类器(classifier),以区分“物体”和“行动”。

诶,为啥不是 2 个而是 3 个?

因为关于行为的分类器中,一个是在 3 种不同动作上训练的,另一个则学习了 5 种动作。

结果显示,人脑对物体和动作都有不错的反应,而狗狗的大脑只对动作敏感,对于不同的人、物,它们似乎并不感冒。

为了评估模型性能、让数据更有说服力,研究者还用了 Ivis 机器学习算法对收集的数据进行量化。

从人类志愿者的数据来看,这些模型在将其大脑活动数据映射到不同分类器上时,准确性都超过 99%。

而在对狗的大脑数据进行解码时,该模型对基于物体的分类器基本不起作用;不过对于基于行为的分类器来说,准确率可达 60% 至 88%。

由此可见,狗狗的思维方式和我们还是有很大区别的!

研究者来自埃默里大学心理学系。

论文一作 Erin M. Phillips,现为普林斯顿大学生态学和进化生物学系的在读博士研究生。

她作为访问学者来到埃默里大学,并参与了这项研究。

论文的共同作者 Gregory S.Berns,现任埃默里大学教授,主要研究方向为人类决策的神经影像、狗的 fMRI,以及比较神经生物学。

Berns 教授本科毕业普林斯顿大学物理学系,并先后获得 2 个博士学位:生物医学工程博士以及医学博士。

Berns 认为,狗狗更关注动作其实是可以理解的,因为动物天生需要非常关注环境中的变化,以此来捕猎或者避免被吃掉。

虽然在本次研究中,最终只有 2 只狗参与,不过研究者未来还会对更多狗子以及其他动物展开实验,探索动物们是如何感知世界的。

论文地址:

https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog

参考链接:

本文来自微信公众号:量子位 (ID:QbitAI),作者:Alex

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。