绥化社区:AI决议若「可解释」 陈良基:能提升信托

admin 4周前 (05-13) 科技 22 0

祝润霖

【台湾醒报记者祝润霖台北报导】「AI的升级版要能跟人类注释缘故原由,不只是一个黑盒子。」科技部长陈良基11日示意,徐宏民教授团队开发的可注释性XAI(Explainable AI)人脸辨识模组,同步化辨识的正确性及可注释性,并透过语音说明,能让使用者明了AI决议的理由,提升人类对使用AI的信托度。

人类对AI的信任度

「当人脸辨识要落地变为产物使用时,可注释性变得非常重要。」台大AI中央教授徐宏民说,包罗低解析度及伪装人脸的研究,甚至牵涉到国安问题,例如2016年纽约爆炸案,监视器画面有拍到嫌犯,但那时的手艺无法辨识。解析度小的做法,首先是把人脸放大,人类辨识能力约97.53%,AI已经到达98%以上。

「AI辨识真的能依赖吗?系统说是A,为什么?为何不是其它效果?」徐宏民示意,研究团队试着确立可注释的模组,希望能让正确性高、可注释性也高,并把效果转换成可注释的语音。xCos已经开源让国内外的业界、学界使用,希望加速人脸辨识开发,连续研究XAI在医学、能源、工业的应用,辅助解决问题。

,

sunbet

www.0-577.com欢迎您的加入。

保险网声明:该文看法仅代表作者自己,与本平台无关。转载请注明:绥化社区:AI决议若「可解释」 陈良基:能提升信托

网友评论

  • (*)

最新评论

相关推荐