是技术邪恶?是技术邪恶?红旗因全球变暖而升起,海洋因全球变暖而升起

技术的好坏与创造和使用它的人是一样的。

这是周三在海港区举行的HubWeek活动中,一个数字世界伦理问题小组达成的棘手共识。该小组由《哈佛商业评论》主编Adi Ignatius主持,成员包括计算机科学家和企业家Rana el Kaliouby,创始人和Danielle Allen ‘ 01, James Bryant Conant大学教授。

伊格内修斯打开讨论事件,由哈佛大学《波士顿环球报》,麻省总医院,麻省理工学院,忏悔:他分享他的孙女的照片在社交媒体上的遥远的网络朋友,尽管身份盗窃的风险担忧上升,非法使用这些图片,未来的尴尬,其他隐私问题,没有同意。他指出,由于人们越来越觉得科技是“黑暗的”,或者是出于恶意,他因此受到了严厉的批评。

El Kaliouby的公司开发了情绪识别软件,他接手了Ignatius的案子,认为这样的谴责过于简单。然而,她在自己的辩护中也提出了警告:互联网社区——比如Facebook——已经变得几乎无处不在,在我们没有真正意识到其影响的情况下收集了大量数据。她说:“我认为我们没有真正考虑过数据隐私、同意问题,以及围绕这项技术的非预期用途展开的讨论。”

艾伦是埃德蒙·萨夫拉伦理中心的主任,他在这一点上做了进一步的阐述。她说,社交媒体让我们都成了“公众人物”,在某种程度上类似于那些为了曝光而放弃隐私的名人。(她补充说,她从不分享自己孩子的照片。)

当el Kaliouby被问及平台和平台下的程序扮演什么角色时,他继续说,技术本身“大体上是中立的”。她提到了算法的使用,比如她的公司开发的算法。例如,情绪检测软件可以用于精神卫生保健,但也可以用于监视。“我们需要坐到谈判桌前,就什么是合理使用、什么不是合理使用达成一致。”

艾伦反对这种中立的观点,他指出,技术源于人类的选择。她说:“每一项技术都是一个问题的设计解决方案,经常寻求优化某些东西。”“对问题的选择和对优化内容的选择是一个决策。它从来不是中性的。第一个确定优先顺序的时刻非常重要。”

相关的

Michael Pollan

迈克尔·波伦想要改变你的想法

回顾蒂莫西·利里(Timothy Leary)的时代,反思迷幻药的坏名声

el Kaliouby同意这种说法,但这种首要任务即使不是彻头彻尾的人道主义,通常也是善意的。例如,在使用情感互动软件时,她的首要任务是帮助自闭症儿童识别面部线索,以缓解他们的社交互动。她说:“我们为这种情绪识别软件开发了一套软件,很快我们就了解到,人们正以各种不同的方式应用它。”“我们必须回去修改我们的条款和条件,”命令只有在征得同意的情况下才能使用。,人们必须选择加入,而不是选择退出)。

艾伦说,其中一个危险在于人们倾向于相信技术而不是自己的直觉。她说,我们需要记住的是,我们的电脑和我们一样有缺陷,特别是因为人类不仅要为创造这些技术负责,还要为输入可能有偏见或选择不当的数据负责。她呼吁技术专家和公众都要“认识到人类的独特作用,到目前为止,机器甚至还没有接近于篡夺——目标的选择,”她强调了人类的责任。“我们的首要责任是为我们的机器选择用途,”就像我们为法律和其他工具选择用途一样,她说。

最后,双方一致认为,围绕技术伦理的问题需要被视为是正在进行的,是过程的一部分,而不是一次性的问题。“你必须有一个反复迭代的风险评估过程,”Allen强调。

此外,el Kaliouby说,伦理培训和考虑必须融入到这个过程中。她说:“你不能说你只是个技术专家。他说:“我们如何处理这个问题,如何考虑设计和建造这些技术,都必须有设计元素。

她说:“有很多潜力可以做出惊人的事情。”“我认为人工智能是我们更安全、更高效、更健康的合作伙伴。作为一个社会,我们必须致力于这样利用它。”

相关的

Socrates and binary code.

在计算机科学课程中嵌入伦理学

哈佛倡议被视为国家典范

Barbara Grosz (from left), Jeff Behrend, and Allison Simmons

嵌入式道德赢得15万美元的奖金

该项目旨在使日常技术更加合乎道德

新闻旨在传播有益信息,英文原版地址:https://news.harvard.edu/gazette/story/2019/10/hubweek-panel-explores-ethics-in-the-digital-world/

http://petbyus.com/14875/