Ravit Dotan,作为人工智能伦理领域的专家,以其在加州大学伯克利分校获得的哲学博士学位和在Bria.ai的领导角色,为提供了关于负责任AI实践的深刻见解。在对话中,Ravit强调了从产品开发的最初阶段就整合负责任AI考虑的重要性。她分享了针对初创企业的实际策略,讨论了持续伦理审查的重要性,并强调了公众参与在完善AI方法中的关键作用。她的见解为那些希望在复杂的AI责任领域中导航的企业提供了路线图。
负责任的AI应该从产品开发的开始就考虑,而不是推迟到后期阶段。通过进行小组练习讨论AI风险,可以提高意识并导致更负责任的AI实践。在功能开发的每个阶段进行伦理审查,以评估风险和利益。即使AI模型中没有明确包含性别等特征,测试偏见也是至关重要的。选择AI平台可以显著影响系统中的歧视水平,因此在选择技术基础时,测试和考虑责任方面非常重要。随着商业模式或用例的变化,可能需要改变用于测量偏见的指标,公司应该准备好接受这些变化。公众参与和专家咨询可以帮助公司完善其负责任AI的方法,并解决更广泛的问题。
加入即将到来的“数据领先”会议,与AI和数据科学领袖进行深入讨论!让深入了解与Ravit Dotan的对话细节!
作为TechBetter的首席执行官,深入思考了AI可能带来的反乌托邦结果。最让困扰的场景是虚假信息的泛滥。想象一个不能再依赖在网上找到的任何东西的世界,即使是科学论文也充满了由AI生成的虚假信息。这可能会侵蚀对科学和可靠信息来源的信任,让处于永久的不确定性和怀疑状态。
负责任AI之旅始于在加州大学伯克利分校的哲学博士期间,专攻认识论和科学哲学。对塑造科学的内在价值观感到好奇,并注意到机器学习中的相似之处,机器学习通常被吹捧为无价值和客观的。凭借在技术领域的背景和对积极社会影响的渴望,决定将哲学的教训应用于新兴的AI领域,旨在检测和积极利用嵌入的社会和政治价值观。
对来说,负责任的AI不是关于AI本身,而是关于背后的人——那些创造、使用、购买、投资和保险它的人。它是关于开发和部署AI,具有对其社会影响的敏锐意识,最小化风险,最大化利益。在科技公司中,负责任的AI是负责任开发过程的结果,这些过程考虑了更广泛的社会背景。
初创公司应该从一开始就考虑负责任的AI。推迟这一考虑只会在以后使事情变得复杂。早期解决负责任AI的问题可以让将这些考虑因素整合到商业模式中,这对于获得内部支持和确保工程师有资源处理与责任相关的任务至关重要。
初创公司可以从使用像NIST的AI RMF这样的框架来识别常见风险开始。他们应该考虑他们的目标受众和公司可能如何受到这些风险的伤害,并相应地优先考虑。参与小组练习讨论这些风险可以提高意识并导致更负责任的方法。将业务影响联系起来以确保对负责任AI实践的持续承诺也至关重要。
不认为这是一种权衡。解决负责任AI实际上可以通过消除消费者和投资者的担忧来推动公司向前发展。拥有负责任AI的计划可以帮助市场适应,并向利益相关者展示公司在减轻风险方面是积极主动的。
公司的方法各不相同。一些公司,如OpenAI,发布产品并在发现不足后迅速迭代。其他公司,如谷歌,可能会在对模型行为更有信心之前暂停发布。最佳实践是在功能开发的每个阶段进行伦理审查,以权衡风险和利益,并决定是否继续进行。
一个值得注意的例子是亚马逊放弃的AI招聘工具。在发现系统对女性有偏见之后,尽管没有将性别作为特征,亚马逊选择放弃该项目。这个决定可能为他们节省了潜在的诉讼和声誉损害。它强调了测试偏见和考虑AI系统的广泛影响的重要性。
公司必须适应。如果用于测量偏见的主要指标因商业模式或用例的变化而过时,他们需要切换到更相关的指标。这是一个持续改进的旅程,公司应该从一个有代表性的指标开始,测量并改进它,然后迭代以解决更广泛的问题。
虽然不严格地将工具分类为开源或专有以负责任AI,但公司考虑他们选择的AI平台至关重要。不同的平台可能具有不同程度的固有歧视,因此在选择技术基础时,测试并考虑责任方面非常重要。
接受变化。就像在其他领域一样,有时指标的变化是不可避免的。重要的是要有所作为,即使它不是完美的,并将其视为一个逐步改进的过程。通过黑客马拉松或红队活动与公众和专家接触可以提供宝贵的见解,并帮助完善负责任AI的方法。