[]?深度学习如何改善我们进行科学研究的方式( 三 )
强化学习是显示科学研究前景的另一个领域 , 在该领域 , 数据稀缺 , 数据收集困难且成本高昂 。在强化学习中 , AI代理自行探索问题空间 , 并通过优化奖励功能来发展其行为 。
但是 , 生成式AI和强化学习带有一些警告 。Schmidt和Raghu指出:“我们将这些方法称为高级方法 , 因为它们通常更复杂地实施 , 并且可能要求问题的特定属性有用 , 例如 , 用于强化学习的出色环境模型/模拟器 。”科学研究和深度学习的可解释性问题
深度学习经常面临的另一个挑战是可解释性 。深度神经网络是复杂的函数 , 其参数可能会达到数百万甚至数十亿美元 , 而弄清它们如何解决问题和进行预测常常令人困惑 。
这可能对科学研究的许多领域构成挑战 , 这些领域的重点是理解而不是预测 , 研究人员试图确定数据中观察到的模式背后的潜在机制 。“在科学环境中应用深度学习时 , 我们可以将这些观察到的现象用作预测目标 , 但最终目的仍然是了解导致这些观察的因素是什么 。
幸运的是 , 可解释的人工智能的进步在一定程度上帮助克服了这些障碍 。尽管完全理解和控制神经网络的逐步决策机制仍然是一个挑战 , 但过去几年中开发的技术可以帮助我们解释该过程 。Schmidt和Raghu AI的可解释性技术分为两大类:特征归因和模型检查 。
特征归因有助于我们更好地了解特定样本中的哪些特征对神经网络的输出有所贡献 。这些技术产生了突出显示这些功能的显着性图 。例如 , 如果您正在检查图像分类器 , 则显着性图将突出显示AI在确定其类别时所驻留的图像部分 。
有多种产生显着性图的技术 , 包括GradCAM , LIME和RISE 。它们是检查神经网络输出以了解其决策是基于正确还是错误特征的好方法 。
文章图片
文章图片
RISE生成的显着性图示例
另一方面 , 模型检查试图探查网络隐藏层中的神经元 , 并找到激活它们的输入类型 。这些技术为AI模型的一般运作提供了更好的见解 。在该领域中完成的一些有趣的工作是GANPaint和Activation Atlassses , 它使您可以检查操纵单个神经元的效果 , Activate Atlassses是一种可视化神经网络中神经元之间相互作用的工具 。
将深度学习应用于科学发现的机会很多 , Schmidt和Raghu编写的论文为有抱负的科学家提供了很好的入门指南 。
随着跨多个科学领域收集的数据量无论是在数量上还是在复杂性上都在不断增加 , 深度学习方法为基本的预测问题以及揭示基础数据生成过程的微妙特性提供了许多令人兴奋的可能性 。
推荐阅读
- 小虔科技|华为和小米都曾经学习苹果3D面部识别,为啥现在不用了
- 电脑数码精通|夏季如何让电脑的故障率降到最低?早知道早做准备吧
- |支付宝面试题:如果你是支付宝的产品经理,如何让更多人用支付宝点外卖?
- |传统互联网产品经理正在消失,如何自救?
- 华南科技第一线|京东618,大学生换5G新机如何选?
- 毒草科技|如何挑选入门级智能录音笔?搜狗C1对比讯飞A1,谁更值得买?
- 砍柴网|讯飞智能学习机 618 新惊喜,多重优惠助力孩子暑假弯道超车
- 新智元|B站上线!DeepMind加UCL强强联手推出深度学习与强化学习进阶课程(附视频)
- cnBetaTB|看机器人如何制作出既有颜值又美味的蛋饼
- 京东京东沃尔玛再加持,达达募资3亿美元如何应战即时配送?
