造合乎道德、负责任的人工智能
人工智能无处不在,而且发展迅速。在 年的年度全球人工智能调查中,一家领先的咨询公司发现,企业采用人工智能的人数在五年内增长了一倍以上,约 的受访者在至少一个业务部门或职能部门使用人工智能。 的企业报告称人工智能节省了成本,而 的收入有所增加。然而,调查结果也令人担忧——尽管企业正在加大对人工智能的使用,但并没有显著加大力度降低其风险。多位受人尊敬的科技领袖在一封公开信中呼吁暂停开发比 更强大的系统六个月,并提出了一些担忧,这引发了人们对人工智能自我监管日益增长的必要性的讨论。 联合创始人 也在参议院听证会上敦促美国立法者加快制定法规。这可能是历史上私人机构首次要求政府机构对其实施监管。
与此同时,人工智能在日常生活中迅速升级。皮尤研究 墨西哥手机号码数据 中心在 年对大约 名美国成年人进行了调查, 年 月 的人意识到他们每周至少与人工智能互动几次。其余受访者认为他们不经常使用人工智能。然而,现实情况是,相当多的人在不知情的情况下与人工智能互动。这意味着他们可能会在不知不觉中将自己暴露于人工智能的风险中,例如侵犯隐私、错误信息、网络攻击甚至人身伤害。现在, 生成式人工智能 随着互联网的出现,风险也成倍增加,包括侵犯版权、错误信息以及有害内容的猖獗传播。
减轻生成式人工智能潜在风险的策略最好遵循以下三管齐下的方法:
技术护栏
当谈到生成式人工智能时,固有偏见、毒性、幻觉等风险变得非常真实。企业需要投资于一个强化层来监控和降低风险。这一层将确保大型语言模型在训练或提示时不会使用敏感或机密信息。可以进行进一步筛选,以检测有毒或有偏见的内容,并将某些内容限制在企业中的特定个人,如公司政策所述。任何不符合要求的提示或输出都可能被企业中的监管合规团队阻止或标记为待审查。