返回栏目
首页人工智能 • 正文

2021年,神经科学AI有这几大趋势

发布时间:  来源:河洛网

新年向我们挥手。 到了继承优良革命传统,发表最新一期AI专家预测报告的时候了。 每个受访者将自己知道的事情、实验室的发现和企业的动向相结合,预测新年人工智能技术的发展方向。

2021年,神经科学AI有这几大趋势

虽然是无聊的话,但我们很快就会进入本期的预测主题。

Arash Rahnama博士,Modzy公司应用AI研究负责人:

就像AI系统的进步迅速推进一样,敌人欺骗AI模型诱导错误预测的能力也在提高。 深度神经网络容易受到施加在其输入素材(对抗AI )上的微细对抗因素的干扰,而且人眼几乎无法感知到素材中的异常。 这种攻击无疑给在任务关键型环境中成功部署AI模型带来了巨大的风险。 以现在的发展速度,除非组织立即在AI安全工作中建立自主的防御系统,否则很可能会成为2021年重大AI安全事件频发的元年。

2021年也将是说明全面实现的一年。 随着组织继续集成AI程序,可以解释是机器学习流水线中建立用户信任的中心前提。 只有切实理解机器学习根据实际数据判断的依据,才能在人与模型之间建立信任关系。 相反,我们不能对基于AI的决策充满信心。 总之,解释可能性在AI的应用进入下一阶段中发挥着重要的作用。

说明和上述抗性攻击训练方法相结合,可以在人工智能领域发生新的革命。 说明有助于了解模型预测,特别是影响偏差产生原因&mdash的数据。 — 这些信息可以用来训练稳定性更高、可靠性更高、足以防止攻击影响的坚固模型。 关于这种模型工作原理的战术知识有助于我们整体提高模型的质量,保障模型的安全。 AI科学家们重新定义了模型的性能,不仅包括预测精度,还包括对不确定的环境变化的判断偏差、鲁棒性、共同能力等指标。

Kim Duffy博士,Vicon公司生命科学产品经理

只着眼于今后一年,很难正确预测人工智能( AI )和机器学习( ML )的发展状况。 例如,在临床步态分析中,着眼于患者的下肢运动,确定街道和行走障碍的原因。 在这方面,AI和ML等技术的应用还处于初期阶段。 Vicon公司在最近的“对人类运动的深刻理解”报告中强调了这一点,说真正利用这些方法在临床步态研究领域进步至少需要几年时间。 有效的AI和ML方法需要辅助大量的数据,以配合合适的算法有效地训练模型的趋势和模式识别能力。

2021年,可能会发现更多的临床医生和生物力学研究者在数据分析水平上采用了AI和ML的方法。 这几年,我们看到步态研究领域出现了越来越多的AI和ML学术文献。 我相信这一势头将持续到2021年,在临床和研究小组之间开展更多的合作,开发有助于自动说明步态数据的机器学习算法。 最终,这些算法有望加快临床层面上干预措施的提出速度。

有必要再次强调机器学习的实际成果和利益不会在这么短的时间内出现。 但是,在处理步态数据时,越来越多的人考虑了这些方法。 例如,步态和姿势研究协会主席最近表示,在研究量化运动分析的临床影响时,有必要根据大数据使用机器学习等方法,提高量化步态分析的研究效率,为临床决策提供更全面的解读思路,减少主观因素 步态和临床运动分析学会也赞扬AI/ML这一新技术的组合,同样鼓励更多的临床研究团体将两者纳入研究范畴。

Joe Petro,Nuance Communications公司CTO

2021年,AI技术将逐渐结束炒作周期,未来AI解决方案的承诺、主张和发展愿景将更多地反映在可证明的进步和可量化的生产中。 结果是,更多的组织将专注于解决特定的问题,不仅是为PPT演示和研究开发开发开发的水平,还将确保构建能够提供转化为实际投资回报的成果的解决方案。 在新的一年里,谁能帮助客户切实解决需要解决的复杂问题,谁能在AI/ML领域保持竞争优势。 这种客观现实不仅影响科技企业研发资金的投入方向,也影响技术工作者规划学习途径和职业生涯的实际设想。

随着AI在技术领域各个方面的渗透,人们越来越关注AI道德问题,深入理解AI带来意外偏见结果时揭示的深刻内涵。 消费者更好地理解自己的数字足迹,了解自己的个人数据在交互系统、行业和品牌中的使用情况。 这意味着与AI供应商合作的企业有必要提高对客户数据处理方式审查工作的兴趣,同时明确是否有利用个人数据获利的第三者的行动。

Max Versace博士,Neurala公司共同创始人兼首席执行官

在新的一年里,AI解决方案可以以更低的成本、更小的硬件部署。 2020年是充满动荡的一年,面对意想不到的经济前景,以前的资本密集型复杂解决方案必然转向轻量化(可能只在软件层面出现)的低成本解决方案。 这种方法有助于制造商在短期内实现投资回报,大幅减少前期投资的需求。 这也使企业能够适应更强大的供应链和客户需求的变动— — 面对新型冠状病毒大爆发的巨大影响,这种灵活性已经成为世界范围内各行业争取生存的必要能力。

人类为什么也要注意人工智能& ldquo & rdquo; 做出自己的判断。 在讨论AI可解释的问题时,往往关注偏见和其他道德问题。 但是,随着AI的发展,结果变得更加正确可靠的同时,质疑AI判断依据的人也在增加。 我们不能完全相信自己不能理解的自动系统。 以制造场景为例,AI表示产品为“ 良品” 或者“ 次品” 提出有说服力的理由。 只有这样,人类操作员才能对这样的系统有自信和信任感,最大限度地合作。

新的一年,新的预测。 所有展望的答案都期待着明年公布是否正确。

最后,祝大家新年快乐!

【编辑推荐】

    相关文章Related

    返回栏目>>

    河洛网首页

    Copyright © 2019 河洛网 版权所有 dahuimr@163.com