AI道德
【前沿】招聘平台PredictiveHire分享了招聘的AI道德框架,公开审核算法会是未来的趋势吗?
Recruitment Platform PredictiveHire shares its ethical framework for AI
Addressing valid concerns in the HR industry about AI, PredictiveHire has released an ethical framework to encourage transparency in the sector
招聘平台PredictiveHire分享了它的AI道德框架
针对人力资源行业对人工智能的合理担忧,PredictiveHire发布了一个道德框架,以鼓励该行业的透明度。
澳大利亚墨尔本- 率先推出透明化人工智能辅助招聘解决方案的澳大利亚科技公司PredictiveHire(https://www.predictivehire.com/)宣布在全球范围内发布其公平的人工智能招聘(FAIR™)框架,以教育人力资源主管评估人工智能技术在其组织中的应用,并作为该领域人工智能开发者的对话火花:
该框架已经发布,以开始围绕人力资源技术的透明度进行对话,以应对该部门人工智能解决方案的爆炸性增长,许多人使用的算法在 "黑箱 "中运行。缺乏任何形式的供应商认证,以及监管落后于技术创新的事实,意味着供应商之间缺乏合作,以倡导该行业的AI道德,PredictiveHire希望帮助改变这种情况。
公平的AI招聘(FAIR™)框架 :
- 专注于建立一个数据驱动的公平性方法,为评估、挑战和加强公平性考虑提供客观的途径。
- 包括一套措施和指南,以实施和维护基于人工智能的候选人甄选工具的公平性。
-对于招聘经理和组织来说,它提供了一个保证以及一个模板来查询AI招聘工具的公平性相关指标。
-对于候选人来说,FAIR™确保他们使用的是一个以公平性为关键性能指标的系统。
在发布该框架时,PredictiveHire首席执行官Barb Hyman表示。"我们创建了一个框架,希望能以此为灵感,确保人工智能被用于建立包容性的团队--这是人类自己无法做到的,因为我们无法颠覆自己的偏见。"
"我们的使命是帮助人力资源领导者让偏见中断,而不是夸夸其谈,这也是为什么我们还出版了这本《让包容成为人力资源的优先事项,而不是公关》的指南。"。
关于Predictive Hire
Predictive Hire已经成为最值得信赖的移动优先人工智能招聘平台之一,被澳大利亚、印度、南非、英国和美国的公司所使用,每两分钟就有一个候选人与他们独特的人工智能聊天机器人Phai接触。
公司的最终结果是--偏见在漏斗的顶端被打断,你的招聘经理在Phai他们的副驾驶的授权下做出更客观的决定,包容性得到增强,而你的招聘资料开始看起来更像你的申请人资料。
https://www.predictivehire.com/fair-ai-recruitment-framework/
AI道德
David Green谈:2020年人力资源的10个预测--将“ H”放回HR
我同意丹麦物理学家尼尔斯·波尔(Niels Bohr)的看法,“ 预测非常困难,尤其是对未来的预测,”而《银河漫游旅行者指南》的作者道格拉斯·亚当斯(Douglas Adams)则说:“ 试图预测未来是杯子的游戏。”但是,我也同意亚当斯的观点,即越来越多的人甚至不情愿地玩游戏,因为“ 世界变化如此之快,我们需要对未来的实际情况有所了解,因为我们可能要下周住在那里。”…谁能抵制将2020/20年愿景应用到2020年的诱惑?
#1 “人”回到人力资源领域
机器人不会接替我们的所有工作。这可能会成为一个很好的头条新闻-反乌托邦总是有益于血液循环,但事实并非如此。历史告诉我们,工业革命创造的工作多于失去的工作。没有理由期望第四次工业革命会有所不同。确实,来自世界经济论坛的数据预测,到2022年将有1.33亿个新角色出现,而7500万岗位将消失。那些将自动执行的任务大部分由例行和重复性任务组成,而人工智能所产生的许多工作将使我们更具创造力,影响力和人性化。在这里,人力资源不仅可以成为领导与人相关的问题的工作乐队的指挥者,而且可以发挥至关重要的作用,
#2每个公司都需要针对性的人力资本分析和AI的道德规范
随着人力资本分析的采用不断增加(请参阅第3条)以及在人力资源部门使用人工智能和机器学习的情况,因此,制定《道德宪章》以减轻围绕使用人员数据的风险并为员工带来利益的需求已成为前提。 -必要条件。好消息是,根据埃森哲(Accenture)的研究,只要个人受益,就有92%的员工愿意收集有关他们的数据。有望在2020年继续实现个性化(请参阅第5条)和个人分析的增长,以支持围绕绩效,职业和福祉的决策。我们在Insight222进行的近期研究发现,目前只有23%的公司制定了《人员分析道德准则》 。制定道德宪章原为 我们与The People Analytics Program成员共同进行的第一个共同创造项目。这些公司以及其他已实施道德宪章的公司拥有蓬勃发展的人员分析团队,为企业和员工创造价值,并为进入2020年及以后的持续成功做好准备。
#3人力资本分析(PA/People Analytics)继续蓬勃发展
如果2019年是People Analytics终于到来的那一年,那么2020年很可能会成为超速驾驶的一年。我们与Insight222的许多人员分析团队合作。他们几乎都在数量上增长(与我们合作的许多团队的规模在2019年翻了一番或三倍),预算(在人力资源其他领域的资源正在缩减)和责任感(在领域中增加了广度和深度)例如员工体验,员工队伍规划以及开发基于分析的产品)。我预计,随着更多的人员分析负责人直接向CHRO报告,以及各组织增加投资以提高其更广泛的人力资源团队的数据素养,这种情况将在2020年加速。
#4员工体验变得更加重要
EX已经是人力资源领域中最大的事情,但是,正如TI People 最近的《员工体验状况研究》所显示的那样,它只会变得越来越大,有92%的人认为EX在2021年将比今天更加重要。尽管最初对EX的关注可能是由于员工期望的提高(就像在客户体验中一样),但越来越多的证据表明,拥有强大EX的公司的表现要优于市场(参见图1)。我们与Insight222合作的大多数公司目前都在开发或实施EX程序。用来理解,设计和衡量员工体验的方法-尤其是在“关键时刻”正在变得越来越复杂,越来越由数据驱动并且更加连续。同样2月28日中国上海也将举行《2020员工体验论坛》。
图1:高绩效公司的股票表现与道琼斯指数和标准普尔指数(来源:Willis Towers Watson,确定构成高绩效员工体验的因素,2019)
#5学习的个性化和个性化–一种规模,一劳永逸
EX的一个关键要素是创造个性化的体验-完全不同于过去适用于所有人力资源计划的单一规模。HR可能是个性化应用最广泛的领域是学习,鉴于我们处于重新技能时代,终身学习特别及时。诸如myHRfuture之类的工具使员工能够基于他们想要学习的技能和知识以及通过机器学习策划的内容来创建定制的途径,这些工具正变得越来越普遍,并有助于推动学习革命。
#6技能是未来新的货币
在自动化时代中,最大的挑战也许不是人员的全面替换,而是从对工作的关注转变为看到按技能或任务进行细分的公司(见图2)。基于我们与Insight222合作的公司,这种新的技能水平将对劳动力规划(未来的技能,组合:构建,购买,借贷或机器人),学习(技能,学习和非学习)产生越来越重要的影响),人才培养(位置策略,品牌,人才库)和并购策略。这对于人员分析(越来越多地与劳动力计划结合)和人力资源技术(基于与我一起工作的客户的反馈,目前在这里不能满足需求)是一个巨大的机会。
图2:今天和2020年的劳动力细分(来源TI People)
#7关系问题– ONA推动业务价值
随着公司变得越来越敏捷,更加协作并且越来越不分层,组织网络分析可以为工作的完成方式提供新的视角-特别是有助于最大程度地提高公司的社会资本价值。通用汽车利用ONA的见识来促进创新。Microsoft已使用它来支持入职并强调经理行为以提高团队绩效和敬业度。McKesson使用ONA来了解高绩效销售专业人员和团队的网络行为。这些只是案例研究中越来越令人印象深刻的集合中的三个。观看下面的McKesson案例视频,并在ONA在People Analytics中的作用中找到有关ONA的更多信息。 并探索ONA领先专家Rob Cross的工作。
#8人力资源继续重塑和反思
人力资源无疑是业务最激动人心的领域之一,但如果要满足业务领导者和员工不断增长的期望,它也需要改变。简而言之,人力资源必须变得更加数字化,更加敏捷并且具有更多的数据素养才能实现更大的业务价值。好消息是,HR专业人员意识到了这一点并想学习(图3)。重点介绍了人力资源专业人员告诉myHRfuture他们最想学习的六项技能。因此,他们的组织和CHRO必须提供资金,支持和投资来实现这种发展。除了建立能力之外,人力资源还需要继续转变为以员工为中心的与员工一起工作以及为员工服务的心态,而不是他们。我从Leena Nair(联合利华),Diane Gherson(IBM),Peter Fasolo(J&J),Kathleen Hogan(Microsoft)和Katarina Berg(Spotify)等先锋CHRO越来越多地看到了这一点,他们巧妙地将以人为本的设计方法与创造结合在一起通过人力资源可证明的商业价值。
图3:人力资源专业人员想要学习的六大技能(来源:myHRfuture,未来人力资源技能,2019)
#9人力资源科技市场持续升温
Josh Bersin表示,HR Tech持续升温,目前市场价值超过3000亿美元。微软,SAP和Workday等主要公司都在进行重大投资。新兴市场不断创新,并产生了巨大的兴趣和投资。也许不足为奇的是,对于买方,分析师,投资者和卖方自己而言,市场变得越来越混乱。来年看到更多宣传(在AI和Blockchain等领域),创新(在技能和劳动力规划等领域)和整合并不感到惊讶,例如,当我输入这篇文章时,我得知Degreed已收购了Adepto。。预计2020年会有更多整合。
#10提升健康,文化和D&I的价值
尽管EX,People Analytics和设计思想的兴起都有助于将“人”重新带回HR,但仍有许多工作要做。杰弗里·普费弗(Jeffrey Pfeffer)的著作《为薪水而死》(Dying For A Paycheck)对现代管理实践如何产生压力,损害员工敬业度以及员工的身心健康提供了严厉的指控。Pfeffer还提供了证据,这也如何影响公司绩效。但是,也许情况正在发生变化。如果可以相信企业圆桌会议首席执行官的宣布,那么我们将看到世界上最大的公司从仅专注于股东转向以所有利益相关者为中心的更加平衡的目标(消费者,员工,供应商和社区以及股东)。在这里,People Analytics变得尤为重要,尤其是在部署它来帮助确定诸如员工健康计划之类的计划的投资回报时。例如,Leena Nair在Digital HR Leaders Podcast上与我分享了一点,联合利华发现,每投入1美元用于员工健康,他们将获得2.50美元的回报。显示员工健康的业务价值–以及健康的文化,强大的EX,多元化和包容性举措似乎是定额人力资源可以构成该职能的未来。
以上来自David Green的预测,有删减
由AI翻译完成。仅供参考。
AI道德
人力资源领导者必读:应对未来de工作所需5项关键措施-来自Gartner的建议
人力资源领导者应着眼于公司的未来前景。
尽管“工作的未来”似乎是个时髦的名词,但事实是,由于技术的不断发展以及在数字化环境中不断发展的需要,大多数(即使不是全部)工作场所也在迅速变化。公司没有为这些变化做好准备。Gartner最近的一项调查发现,只有9%的CHRO同意他们的组织为未来的工作做好了准备。
Gartner ReimagineHR的Gartner人力资源研究主管Brian Kropp表示:“要应对工作的未来,组织必须计划并利用未来十年中受社会,世代和技术变革影响的工作方式的变化。”
Gartner确定了高级人力资源领导者必须关注的五个工作领域,以提高组织,员工和整个社区的未来绩效。
第一条:制定AI道德策略
Gartner研究发现,有75%的组织正在大幅增加对分析的投资。实际上,与人才分析相关的预算项目是典型HR组织中增长最快的项目。越来越多地使用数据来制定与人才有关的决定,包括管理,工作场所设计等。
对人才分析的日益关注已导致高级人力资源主管不仅质疑如何以合乎道德的方式收集数据,还质疑如何合乎道德地使用所收集的数据。鉴于工作场所中AI的增长,这些问题很重要。展望未来,人力资源部门必须制定符合道德规范的AI和分析策略,对领导者进行有关实际员工数据滥用的培训,并建立专注于数据和AI决策道德的角色。
第二条:重新思考员工如何发展技能
技能开发是大多数组织的首要任务,73%的首席人力资源官表示,培养关键技能和能力是重中之重。同时,所需的技能也在发生显着变化 -与5年前相比,近三分之二的职位发布所要求的技能变化超过25%。
在职培训是用于发展员工数字技能的主要方法。不幸的是,有47%的在职学习机会面临被AI自动化和消除的风险。
为了确保员工仍然拥有发展当今和未来所需关键技能所需的学习机会,组织必须审核现有的学习策略,以了解对在职培训的依赖。然后,人力资源部门必须重新考虑技能开发的方式,以及如何在最大程度地利用新技术的同时仍为员工提供发展机会。
第三条,建立内部透明度策略
通过Glassdoor和Fairy Godboss之类的网站,候选人比以前拥有更多有关雇主和工作场所的信息,但员工并不觉得自己对自己的雇主具有相同的知名度。Gartner的研究发现,有59%的候选人在提交申请之前就觉得自己对将要申请的公司有充分的了解,但只有40%的员工对自己的雇主有所了解。
员工呼吁雇主增加透明度。为了满足这些日益增长的期望,雇主必须制定一项比当前文化所允许的策略更进一步的策略。此外,必须对管理人员进行有关如何在更加透明的环境中进行操作的培训,在这种环境中,员工无法获得更多信息,而力量平衡也在发生变化。
第四条:全面改革新时代的经理角色
Gartner研究显示,2010年,公司平均每位经理人在培训上的支出为471美元,在过去10年中,每位经理人的平均支出超过5,000美元。不幸的是,这些努力在管理人员的效率上实现了零净改进。随着自动化继续渗透到工作场所,经理的日常生活将发生巨大变化。Gartner研究显示,到2024年,经理人目前所做的工作中有69%将实现自动化。
进步的组织现在正在问技术如何从根本上改变成为经理的含义。Gartner建议,在新的工作时代,组织改革其经理角色时,HR领导者应关注三件事:
确定应自动执行哪些管理任务
建立对经理的新期望
通过更少的管理机会设计职业发展道路
第5条:使用AI为那些被排除在劳动力市场之外的人创造就业机会
人工智能的部署非常广泛-在过去的十年中,有10多家公司中有超过9家向Gartner报告称,他们已经在人工智能的实施方面进行了大量投资。Gartner最近的一项调查显示,有70%的CHRO希望在未来三年内对AI进行投资来替代其组织中的工作。但是,尽管随着新技术的实施,工作机会将流失,但技术也将使历史上从未有过工作的人能够获得工作。
为了能够使用新的人才库,人力资源部首先需要审核内部系统和实践,以发现成功的潜在障碍。然后,组织应寻求实施能够为劳动力市场的新进入者创造有利工作环境的技术。
克罗普说:“组织可以通过思考并为这五个方面的未来工作做准备,从而获得竞争优势,这将使更好的人才获取和管理成为可能。”
关于未来的工作,大家可以关注2020年8月在中国举办的“2020未来的工作超级会议”,带领大家一起关注和了解工作的未来!
作者:Mary Baker
来源:https://www.gartner.com/smarterwithgartner/5-imperatives-for-hr-leaders-to-tackle-the-future-of-work/
以上由AI翻译完成,仅供参考。
AI道德
思考:人工智能伦理的3个基本步骤 如何通过人工智能将道德应用于更安全的未来
关于人工智能(AI)的未来,有两种思想流派:
乌托邦的观点:智能系统将迎来一个启蒙的新时代,人类从工作中解脱出来追求更高尚的目标。人工智能系统将被编程以治愈疾病,公平地解决争端并且只会以有利于我们的方式增加我们的人类生存。
世界末日的观点:智能系统将窃取我们的工作,在进化中超越人类,成为战争机器,并根据当前的需求优先考虑遥远的未来。我们控制它们的可疑努力只会揭示我们自己的缺点和较低的将道德应用于我们无法控制的技术的能力。
与大多数事情一样,事实可能是在中间的某个地方。
无论你在哪个领域工作,重要的是要考虑随着技术的发展人类可能如何影响人工智能。一个想法是人类将主要形成人工智能的良知或道德结构。但是,我们将如何做到这一点?我们如何将道德应用于人工智能以帮助防止最糟糕的事情发生?
人与人之间的关系
深度学习系统的强大之处在于他们确定自己的参数或特征。只要给他们一个任务或目的,指出他们的数据,然后他们处理剩下的事情。例如,自动校准能力在SAS®可视化数据挖掘和机器学习可以计算出为自己的最好成绩。但人们仍然是这一过程中最关键的部分。
“人类解决问题而不是机器,”SAS的AI专家Mary Beth Ainsworth解释说。“机器可以提供解决问题所需的信息,然后进行编程,以自动化的方式解决这个问题 - 基于解决问题的人性化解决方案。”
虽然未来的人工智能系统也可能收集他们自己的数据,但大多数现有系统依靠人类来提供输入参数,包括通过学习定义确定的数据和最佳结果,如强化学习。当您要求算法找出实现该结果的最佳方法时,您不知道机器如何解决问题。你只知道它会比你更有效率。
鉴于目前人与AI之间的这种关系,我们可以采取一些步骤来更加道德地控制AI项目的结果。我们从这三点开始。
人类解决问题,而不是机器。机器可以显示解决问题所需的信息,然后进行编程,以自动化方式解决该问题 - 基于针对问题提供的人性化解决方案。Mary Beth AinsworthAI和语言分析策略师SAS
AI道德规范第1步:提供最好的数据
人工智能算法通过一组用于通知或构建算法的数据进行训练。如果您的算法将鲸鱼识别为马,显然您需要提供更多有关鲸鱼(和马)的数据。同样,如果您的算法将动物识别为人类,则需要提供更多关于更多不同人类的数据。如果您的算法做出不准确或不道德的决定,可能意味着没有足够的数据来训练模型,或者学习强化不适合达到期望的结果。
当然,也有可能人类可能在不知情的情况下,通过有偏差的数据选择或错误配置的强化值将他们的不道德价值注入系统。总的来说,我们必须确保我们提供的数据和输入为算法绘制完整和正确的图片。
AI道德规范第2步:提供适当的监督
为所有AI项目建立清晰的所有者和利益相关者的治理体系。定义您将使用AI自动执行哪些决策,哪些决策需要人工输入。为流程的所有部分分配责任,并对AI错误负责,并为AI系统开发设定明确的界限。这包括定期监控和审计算法,以确保偏差不会蔓延并且模型仍按预期运行。
无论是数据科学家还是专门的实践伦理学家,都应该负责AI策略和协议,包括合规性。也许有一天,所有的组织都将建立起人工智能伦理主义的角色。但是不管标题如何,有人必须负责确定产出和绩效是否在给定的道德框架内。
正如我们一直需要治理,可追溯性,监控和标准分析的改进一样,我们也为人工智能提供服务。然而,AI的后果更为严重,因为机器可以开始提问并自己定义答案。
AI道德规范第3步:考虑新技术的后果
为了让个人执行政策,该技术必须允许人类进行调整。人类必须能够选择和调整训练数据,控制数据源并选择数据如何转换。同样,人工智能技术应该支持强大的治理,包括数据访问以及指导算法不正确或在符合道德界定的边界之外运行的能力。
无法预测AI的所有潜在情景,但重要的是要考虑可能性并对正面和负面的强化进行控制。例如,引入新的甚至是竞争性的目标可以奖励符合道德标准的决策,并将不道德的决策视为错误或误导。AI系统旨在提高质量和效率的同等重要性,而不是完全侧重效率的系统。此外,设计一个具有多个独立和相互冲突的目标的AI系统可以为系统增加额外的责任。
不要回避AI道德
人工智能可以提高汽车安全性并诊断癌症 - 但它也可以选择巡航导弹的目标。所有AI功能都有相当多的道德分歧,需要从多个角度进行讨论。我们如何确保AI的道德体系不被滥用?
以上三个步骤仅仅是一个开始。他们会帮助你开始关于为你的组织开发道德AI准则的艰难对话。你可能会犹豫不决,想要画出这些道德标准,但我们无法避免谈话。所以不要等待。现在开始讨论,以便您可以确定边界,如何执行它们,甚至在必要时如何更改它们。
以上由AI翻译完成,仅供参考!
来源:https://www.sas.com/en_us/insights/articles/analytics/artificial-intelligence-ethics.html
扫一扫 加微信
hrtechchina