从年初的AI狂热,到如今AI的降温,以及AI的理性回归,都说明了一个道理:靠情绪调动起来的夸张和炒作,与落地现实之间,存在一个巨大的接受范围。
现在的大部分AI,在我看来更像是被关在一个黑盒中的薛定谔猫。它有可能啥都能干,也可能干啥啥不行。因此,一个AI可用、还是不可用,必须给出一个可行的判定标准。
由于AI幻觉的存在,使很多看似前景广阔的应用领域,变得并不确定可用,比如大部分医疗领域。但是仅依靠降低幻觉,并不能得出一个可用的标准。
于是,AI应用领域探索采用“AI信任度”(credibility)的概念,以期找到一个公允的AI可用性判别标准。
对于基于AI构建产品,或利用AI的SaaS公司,“信任度”并不是一场哲学辩论,或者是换个角度的抬杠,而是一项关键的业务要点,也是影响公司长期成功的关键。而那种跟风求快,在AI信任度上偷工减料的公司,必将为此付出高昂的代价。
回到现实中的AI,对于消费者来说,可接受的结果范围可能相当广泛。但在ToB世界中,一致性是最重要的。比如,你使用genAI确定公司的各项业务收入,分析某一客户应该支付的款项,在类似提示下,给出的数字都应该是一致的。
实际上,AI完全的“一致性”,只是一种理想状态。而“基本一致”或“趋向一致”,在很多场合下,也是一种可以接受的范围。
这种情况下,利用AI的信任度,就可以进一步量化可接受的范围或程度。
AI的信任度,由几个关键维度决定:
可靠性:
是客户选择你的AI产品的首要考虑因素。比如系统正确预期执行的概率,或输出准确性的概率。
可解释性:
黑盒模型虽然强大,但很难被信任,因为它们的推理是不透明的。比如,如果无法解释AI医疗诊断系统是如何得出结论的,那么谁也不会相信它。
因此,应该首选那些透明度高和可解释性强的模型,帮助解释复杂模型的决策。
公平性:
有偏见的AI,不仅会损害公司的声誉,还会导致法律和道德问题。比如,基于AI的法律科技公司,必须做到最大限度的公平,否则就会遇到大麻烦。
因此,必须确保训练数据质量,它们具有代表性且没有偏见。采用技术手段检测和减少AI偏见。
安全性:
外部恶意的攻击或诱导,可能会损害你的AI,从而产生不正确的或恶意的输出。
因此,非常有必要实施强大的安全措施,比如定期审核安全协议,修补模型的安全漏洞。
隐私性:
尊重用户信息隐私,并负责任地处理数据,是对提升AI信任度最大的支持。哪怕一次破坏,也足以让公司在顷刻间崩塌。
因此,有必要积极采用隐私保护技术,并建立和遵循基本道德准则。
归根结底,未来AI企业或AI SaaS企业之间的竞争,不仅取决于构建强大系统的能力,更取决于值得信赖的系统能力。
从行业角度看,随着不断变化的监管环境,AI信任度,有望成为AI系统选择和验收的关键指标。
而建立并提高AI信任度,必将获得长期回报。因为高信任度的AI服务,更有可能被客户所采用,也能提高客户的忠诚度,消除客户的不安心理,因而更能促进客户的持续使用,从而获得更高的LTV。
注:文/戴珂,文章来源:tobesaas,本文为作者独立观点,不代表亿邦动力立场。
文章来源:tobesaas