fast.ai 机器学习笔记(四)(4)

简介: fast.ai 机器学习笔记(四)

fast.ai 机器学习笔记(四)(3)https://developer.aliyun.com/article/1482646

这里是我的经验法则。我的经验法则是看看该类别有多少个离散值(即嵌入矩阵中的行数),并使嵌入的维度为该值的一半。所以如果是星期几,第二个,有八行和四列。这里是(c+1)//2 ——列数除以二。但是我说不要超过 50。在这里你可以看到对于商店(第一行),有 116 家商店,只有一个维度为 50。为什么是 50?我不知道。到目前为止似乎效果还不错。你可能会发现你需要一些稍微不同的东西。实际上,对于厄瓜多尔杂货比赛,我还没有真正尝试过调整这个,但我认为我们可能需要一些更大的嵌入大小。但这是可以摆弄的东西。

emb_szs = [(c, min(50, (c+1)//2)) for _,c in cat_sz]
emb_szs
'''
[(1116, 50),
 (8, 4),
 (4, 2),
 (13, 7),
 (32, 16),
 (3, 2),
 (26, 13),
 (27, 14),
 (5, 3),
 (4, 2),
 (4, 2),
 (24, 12),
 (9, 5),
 (13, 7),
 (53, 27),
 (22, 11),
 (7, 4),
 (7, 4),
 (4, 2),
 (4, 2),
 (9, 5),
 (9, 5)]
'''

问题:随着基数大小变得越来越大,您正在创建越来越宽的嵌入矩阵。因此,您是否会因为选择了 70 个参数而极大地增加过拟合的风险,因为模型永远不可能捕捉到数据实际巨大的所有变化[36:44]?这是一个很好的问题,所以让我提醒您一下现代机器学习和旧机器学习之间的区别的黄金法则。在旧的机器学习中,我们通过减少参数数量来控制复杂性。在现代机器学习中,我们通过正则化来控制复杂性。所以简短的答案是不。我不担心过拟合,因为我避免过拟合的方式不是通过减少参数数量,而是通过增加丢弃率或增加权重衰减。现在说到这一点,对于特定的嵌入,没有必要使用比我需要的更多的参数。因为正则化是通过给模型更多的随机数据或实际上对权重进行惩罚来惩罚模型。所以我们宁愿不使用比必要更多的参数。但是在设计架构时,我的一般经验法则是在参数数量方面慷慨一些。在这种情况下,如果经过一些工作后,我们觉得商店实际上似乎并不那么重要。那么我可能会手动去修改它,使其更小。或者如果我真的发现这里的数据不够,我要么过拟合了,要么使用的正则化比我感到舒适的要多,那么您可能会回去。但我总是会从参数慷慨的角度开始。在这种情况下,这个模型表现得相当不错。

好的,现在我们有一个包含每个嵌入矩阵的行数和列数的元组列表[38:41]。所以当我们调用get_learner来创建我们的神经网络时,这是我们传入的第一件事:

  • emb_szs: 我们的每个嵌入有多大
  • len(df.columns)-len(cat_vars): 我们有多少连续变量
  • [1000,500]: 每一层要创建多少个激活
  • [0.001,0.01]: 每一层使用的丢弃率是多少
m = md.get_learner(
    emb_szs, 
    len(df.columns)-len(cat_vars),
    0.04, 1, 
    [1000,500], 
    [0.001,0.01], 
    y_range=y_range
)
m.summary()

然后我们可以继续调用fit。我们训练了一段时间,得到了大约 0.1 的分数。

m.fit(lr, 1, metrics=[exp_rmspe])
'''
[ 0\.       0.01456  0.01544  0.1148 ]
'''
m.fit(lr, 3, metrics=[exp_rmspe])
'''
[ 0\.       0.01418  0.02066  0.12765]                           
[ 1\.       0.01081  0.01276  0.11221]                           
[ 2\.       0.00976  0.01233  0.10987]
'''
m.fit(lr, 3, metrics=[exp_rmspe], cycle_len=1)
'''
[ 0\.       0.00801  0.01081  0.09899]                            
[ 1\.       0.00714  0.01083  0.09846]                            
[ 2\.       0.00707  0.01088  0.09878]
'''

所以我尝试在测试集上运行这个,并且上周我把它提交到了 Kaggle,这里是结果[39:25]:

私人分数 0.107,公共分数 0.103。所以让我们看看这将如何进行。让我们从公共排行榜开始:

在 3000 个参赛者中排名第 340。这不太好。让我们试试私人排行榜,排名是 0.107。

哦,第 5 名[40:30]。所以希望您现在在想,哦,有一些 Kaggle 比赛即将结束,我参加了,并且花了很多时间在公共排行榜上取得好成绩。我想知道那是否是个好主意。答案是否定的,那不是。Kaggle 公共排行榜并不是要取代您精心开发的验证集。例如,如果您正在进行冰山比赛(哪些是船只,哪些是冰山),那么他们实际上在公共排行榜中放入了大约 4000 张合成图像,而在私人排行榜中没有放入任何图像。所以这是 Kaggle 测试您的一个非常好的方面,“您是否创建了一个好的验证集并且是否信任它?”因为如果您更信任排行榜的反馈而不是验证反馈,那么当您认为自己排名第 5 时,您可能会发现自己排名第 350。在这种情况下,我们实际上有一个相当不错的验证集,因为正如您所看到的,它大约是 0.1,而我们实际上确实得到了大约 0.1。所以在这种情况下,这个比赛的公共排行榜完全没有用。

问题:那么,公共排行榜的前几名实际上与私人排行榜的前几名有多少对应呢?因为在流失预测挑战中,有 4 个人完全超过了其他人[42:07]。这完全取决于情况。如果他们随机抽取公共和私人排行榜,那么这应该是非常有指示性的。但也可能不是。所以在这种情况下,公共排行榜上的第二名最终赢得了比赛。公共排行榜上的第一名排在第七位。事实上,你可以看到这里的小绿色标记。而另外一个人则跃升了 96 个名次。

如果我们用刚刚看过的神经网络进入,我们将跃升 350 个名次。所以这取决于情况。有时他们会告诉你公共排行榜是随机抽样的。有时他们会告诉你不是。通常你必须通过查看验证集结果和公共排行榜结果之间的相关性来判断它们之间的相关性有多好。有时,如果有 2 或 3 个人远远领先于其他人,他们可能已经发现了某种泄漏或类似的情况。这通常是一种存在某种技巧的迹象。

好的,这就是 Rossmann,这也是我们所有材料的结束。

回顾[44:21]

我们学会了两种训练模型的方法。一种是通过构建树,另一种是使用 SGD。因此,SGD 方法是一种可以训练线性模型或具有非线性层之间的线性层堆叠的模型的方法。而树构建具体将给我们一棵树。然后,我们可以将树构建与装袋结合起来创建随机森林,或者与提升结合起来创建 GBM,或者其他一些略有不同的变体,比如极端随机树。因此,值得提醒自己这些东西是做什么的。所以让我们看一些数据。实际上,让我们具体看看分类数据。因此,分类数据可能看起来有几种可能性。比如我们有邮政编码,所以我们有 94003 作为我们的邮政编码。然后我们有销售额,比如 50。对于 94131,销售额为 22,等等。因此,我们有一些分类变量。我们可以表示这种分类变量的几种方式。一种是只使用数字。也许一开始它不是一个数字。也许根本不是一个数字。也许一个分类变量是像旧金山、纽约、孟买和悉尼这样的城市。但我们可以通过任意决定给它们编号来将其转换为数字。因此,它最终成为一个数字。我们可以使用这种任意的数字。因此,如果发现相邻的邮政编码具有相似的行为,那么邮政编码与销售额的图表可能看起来像这样,例如:

或者,如果相邻的两个邮政编码在任何方面都没有相似的销售行为,你会期望看到更像这样的情况:

有点到处都是。所以有两种可能性。如果我们只是用这种方式对邮政编码进行编码,那么随机森林会做什么是,它会说,好的,我需要找到我的最佳分割点——使两侧的标准差尽可能小或在数学上等效地具有最低均方根误差的分割点。因此,在这种情况下,它可能会选择这里作为第一个分割点,因为在左侧有一个平均值,在另一侧有另一个平均值[48:07]。

然后对于它的第二个分割点,它会说如何分割右侧,它可能会说我会在这里分割,因为现在我们有了这个平均值和这个平均值:

最后,它会说我们如何拆分中间部分,然后它会说好的,我会在中间拆分。所以你可以看到,即使它贪婪地自上而下一次一次地进行拆分,它仍然能够专注于它需要的拆分集合。唯一的原因是如果两半总是完全平衡,那么它就无法做到这一点。但即使发生这种情况,也不会是世界末日。它会在其他地方拆分,下一次,两部分树仍然完全平衡的可能性非常小。因此,在实践中,这完全没问题。

在第二种情况下,它可以做同样的事情。即使一个邮政编码与其相邻的邮政编码之间在数字上没有关系。我们仍然可以看到,如果在这里拆分,一侧的平均值,另一侧的平均值可能大约在这里:

那么接下来它会在哪里拆分?可能是在这里,因为这一侧的平均值,另一侧的平均值在这里。

所以,可以做同样的事情。它将需要更多的拆分,因为它将需要缩小到每个单独的大邮政编码和每个单独的小邮政编码。但这仍然没问题。所以当我们处理为随机森林或 GBM 构建决策树时,我们 tend to encode our variables just as ordinals.

另一方面,如果我们正在做神经网络或者像线性回归或逻辑回归这样的最简单版本,它能做的最好就是(绿色),这一点一点也不好:

而且这个也是一样的:

所以一个序数对于线性模型或将线性和非线性模型堆叠在一起的模型来说并不是一个有用的编码。所以,我们创建一个独热编码。就像这样:

通过这种编码,可以有效地创建一个小直方图,其中每个级别都会有一个不同的系数。这样,它可以做到它需要做的事情。

问题:在什么时候这对你的系统变得太繁琐?几乎从来没有。因为请记住,在现实生活中,我们实际上不需要创建那个矩阵。相反,我们可以只有四个系数,然后进行索引查找,这在数学上等同于在独热编码上进行乘法。所以这不是问题。

有一件事要提到。我知道你们已经学到了更多关于事物的分析解决方案。在像线性回归这样的分析解决方案中,你无法解决这种程度的共线性问题。换句话说,如果不是孟买、纽约或旧金山,你就知道某样东西在悉尼。换句话说,这四个类别中的第四个与其他三个之间存在百分之百的共线性。因此,如果你尝试以这种方式在分析上解决线性回归问题,整个事情就会崩溃。现在请注意,对于 SGD,我们没有这样的问题。像 SGD 为什么会在乎呢?我们只是沿着导数走一步。它会在乎一点,因为最终,共线性的主要问题在于有无限数量的同样好的解决方案。换句话说,我们可以增加左边的所有这些,减少这个。或者减少所有这些,增加这个。它们会平衡。

当存在无限多个好的解决方案时,意味着损失曲面上有很多平坦区域,这可能会使优化变得更加困难。因此,摆脱所有这些平坦区域的真正简单方法是添加一点正则化。因此,如果我们添加了一点权重衰减,比如 1e-7,那么这就表示这些解决方案不再是完全相同的,最好的解决方案是参数最小且彼此最相似的解决方案,这将使其再次成为一个良好的损失函数。

问题:您能澄清一下您提到为什么独热编码不会那么繁琐的那一点吗?当然。如果我们有一个独热编码向量,并且将其乘以一组系数,那么这完全等同于简单地说让我们找到其中值为 1 的那个值。换句话说,如果我们将1000存储为零,0100存储为一,0020存储为二,那么这完全等同于只是说嘿,查找数组中的那个值。

所以我们称这个版本为嵌入。因此,嵌入是一个权重矩阵,您可以将其与独热编码相乘。这只是一个计算快捷方式。但从数学上讲,它是一样的。

解决线性模型的解析方法与使用 SGD 解决的方法之间存在关键差异。使用 SGD,我们不必担心共线性等问题,至少不像解析方法那样。然后使用 SGD 解决线性模型或单层或多层模型与使用树的区别;树会对更少的事情提出异议。特别是,您可以将序数作为您的分类变量,并且正如我们之前学到的,对于树,我们也不必担心对连续变量进行归一化,但是对于这些使用 SGD 训练的模型,我们必须担心。

然后我们还学到了很多关于解释随机森林的知识。如果您感兴趣,您可能会尝试使用相同的技术来解释神经网络。如果您想知道在神经网络中哪些特征很重要,您可以尝试同样的方法;依次对每列进行洗牌,看看它对准确性的影响有多大。这将是您神经网络的特征重要性。然后,如果您真的想玩得开心,认识到,那么,对该列进行洗牌只是计算输出对该输入的敏感性的一种方式,换句话说,就是输出对该输入的导数。因此,也许您可以直接要求 PyTorch 给您输出关于输入的导数,看看是否会得到相同类型的答案。

您可以对偏依赖图做同样的事情。您可以尝试使用神经网络做完全相同的事情;用相同的值替换列中的所有内容,对 1960、1961、1962 进行绘图。我不知道有没有人在以前做过这些事情,不是因为这是火箭科学,而只是可能没有人想到或者不在库中,我不知道。但如果有人尝试过,我认为您会发现它很有用。这将成为一篇很棒的博客文章。甚至如果您想进一步,也可以写成论文。所以这是一个您可以尝试的想法。因此,大多数这些解释技术并不特别适用于随机森林。像树解释器这样的东西当然适用,因为它们都是关于树内部的东西。

问题:在树解释器中,我们正在查看特征的路径及其贡献。在神经网络的情况下,我猜每个激活在其路径上的贡献会是相同的,对吗?是的,也许。我不知道。我还没有考虑过这个。

问题继续:我们如何从激活中推断出结论?

Jeremy:说“推断”这个词要小心,因为人们通常使用“推断”这个词来特指测试时间的预测。你的意思是对模型进行一种询问。我不确定。我们应该考虑一下。实际上,Hinton 和他的一位学生刚刚发表了一篇关于如何用树来近似神经网络的论文,就是出于这个原因。我还没有看过这篇论文。

问题:在线性回归和传统统计学中,我们关注的一件事是变化的统计显著性之类的东西。所以在考虑树解释器或者瀑布图,我猜这只是一种可视化。我猜这在哪里适用?因为我们可以看到,哦,是的,这看起来很重要,因为它导致了很大的变化,但我们怎么知道它在传统上是否具有统计显著性?所以大多数时候,我不关心传统的统计显著性,原因是现在,统计显著性的主要驱动因素是数据量,而不是实际重要性。而且现在,您构建的大多数模型都会有如此多的数据,以至于每一个微小的事情都会在统计上显著,但其中大多数在实际上并不重要。因此,我的主要关注点是实际重要性,即这种影响的大小是否影响您的业务?在我们处理的数据较少时,统计显著性更为重要。如果您确实需要了解统计显著性,例如,因为您有一个非常小的数据集,因为标记成本很高或者很难收集,或者是一个罕见疾病的医疗数据集,您总是可以通过自助法来获得统计显著性,也就是说,您可以随机重新对数据集进行多次抽样,多次训练您的模型,然后您可以看到预测的实际变化。因此,通过自助法,您可以将任何模型转化为能够给出置信区间的东西。有一篇由 Michael Jordan 撰写的论文,其中有一种被称为小自助袋的技术,实际上将这一点推进了一步,如果您感兴趣,那么这篇论文是值得一读的。

问题:你说如果你在做随机森林时不需要一个独热编码矩阵。如果我们这样做会发生什么,模型会有多糟糕?我们实际上确实这样做了。记得我们有那个最大类别大小,我们确实创建了一个独热编码,我们这样做的原因是我们的特征重要性会告诉我们个别级别的重要性,我们的部分依赖图,我们可以包括个别级别。所以这并不一定会使模型变得更糟,它可能会使它变得更好,但它可能根本不会改变太多。在这种情况下,它几乎没有改变。

问题继续:这也是我们在真实数据中注意到的一点,如果基数更高,比如说有 50 个级别,如果你做独热编码,随机森林表现得非常糟糕?

Jeremy:是的,没错。这就是为什么在 Fast.AI 中,我们有最大分类大小,因为在某个时候,你的独热编码变量会变得太稀疏。所以我通常在 6 或 7 处截断。另外,当你超过那个点时,它变得不那么有用,因为对于特征重要性来说,要看的级别太多了。

问题继续:它是否可以只查看那些不重要的级别,然后将那些显著的特征视为重要?

Jeremy:是的,这样也可以。就像一旦基数增加得太高,你基本上就是把你的数据分割得太多了,所以在实践中,你的有序版本可能会更好。

没有时间来审查所有内容,但这是关键概念,然后记住我们可以使用的嵌入矩阵可能不只有一个系数,实际上我们将有几个系数的维度,这对于大多数线性模型来说并不实用。但一旦你有了多层模型,那么现在就创建了一个相当丰富的类别表示,你可以用它做更多的事情。

伦理与数据科学

幻灯片

现在让我们谈谈最重要的部分。我们在这门课程的早期谈到了很多机器学习实际上是有些误导的。人们关注预测准确性,比如亚马逊有一个协同过滤算法用于推荐书籍,最终推荐出它认为你最有可能高评的书。结果他们最终可能会推荐一本你已经有或者你已经知道并且本来就会购买的书,这并没有太大价值。他们应该做的是找出哪本书可以推荐给你,从而改变你的行为。这样,我们实际上最大化了由于推荐而带来的销售增长。所以这种优化影响你的行为与仅仅提高预测准确性之间的区别的想法。提高预测准确性是一个非常重要的区别,在学术界或行业中很少被讨论,令人惊讶。在行业中更多地被讨论,但在大多数学术界中被忽视。所以这是一个非常重要的想法,即最终你的模型的目标,想必是影响行为。所以请记住,我实际上提到了我写的一篇关于这个的论文,在那里我介绍了一种叫做传动系统方法的东西,我谈到了如何将机器学习纳入到我们如何实际影响行为的方式中。这是一个起点,但接下来的问题是,如果我们试图影响行为,我们应该影响什么样的行为,以及如何影响,当我们开始影响行为时可能意味着什么。因为现在很多公司,你最终会在那里工作,都是大公司,你将会构建能够影响数百万人的东西。那意味着什么呢?

实际上我不会告诉你这意味着什么,因为我不知道[1:05:34]。我要做的只是让你意识到一些问题,并让你相信其中两件事:

  1. 你应该关心。
  2. 这些是重大的当前问题。

我希望你关心的主要原因是因为我希望你想成为一个好人,并向你展示不考虑这些事情会让你成为一个坏人。但如果你不觉得有说服力,我会告诉你这个事实。大众汽车被发现在排放测试中作弊。最终被判刑的人是实施那段代码的程序员。他们只是按照指示去做。所以如果你认为自己只是一个技术人员,只是按照指示去做,那是我的工作。我告诉你,如果你这样做,你可能会因为听从指示而被送进监狱,所以 a)不要只是听从指示,因为你可能会成为一个坏人,b)你可能会被送进监狱。

第二件要意识到的事情是,在当下,你在工作中与二十个人开会,大家都在讨论如何实施这个新功能,每个人都在讨论[1:06:49]。每个人都在说“我们可以这样做,这是一种建模的方式,然后我们可以实施它,这是这些约束条件”,你心里有一部分在想我们是否应该这样做?那不是考虑这个问题的正确时机,因为在那时很难站出来说“对不起,我不确定这是一个好主意”。你实际上需要提前考虑如何处理这种情况。所以我希望你现在考虑这些问题,并意识到当你陷入其中时,你可能甚至意识不到正在发生什么。那只是一个像其他会议一样的会议,一群人在讨论如何解决这个技术问题。你需要能够认识到哦,这实际上是一个具有道德影响的事情。

Rachel 实际上写了所有这些幻灯片。很抱歉她不能在这里展示,因为她对这个问题进行了深入研究。她实际上曾身处困难环境,亲眼目睹这些事情发生,我们知道这是多么困难。但让我给你们一个了解发生的情况。

所以工程师试图解决工程问题并导致问题并不是一件新事。在纳粹德国,IBM,被称为 Hollerith 的集团,Hollerith 是 IBM 的原始名称,它来自于实际发明用于跟踪美国人口普查的打孔卡的人。这是世界上第一次大规模使用打孔卡进行数据收集。这变成了 IBM,所以在这一点上,仍然被称为 Hollerith。因此,Hollerith 向纳粹德国出售了一个打孔卡系统,每张打孔卡都会编码,比如这是犹太人,8,吉普赛人,12,用毒气室处决,6。这里有一张描述如何杀死这些不同人的卡片。因此,一名瑞士法官裁定 IBM 的技术协助促成了纳粹分子的任务,并犯下了反人类罪行。这导致了大约二千万平民的死亡。根据我从犹太虚拟图书馆得到这些图片和引用的观点,他们认为“犹太人民的毁灭变得更不重要,因为 IBM 的技术成就的振奋性质只会因为可以获得的奇幻利润而进一步提高”。这是很久以前的事情,希望你们不会最终在促成种族灭绝的公司工作。但也许你们会。

www.nytimes.com/2017/10/27/world/asia/myanmar-government-facebook-rohingya.html www.nytimes.com/2017/10/24/world/asia/myanmar-rohingya-ethnic-cleansing.html

也许你们会去 Facebook,他们现在正在促成种族灭绝。我认识在 Facebook 工作的人,他们根本不知道他们在做什么。现在,在 Facebook,罗辛亚人正处于缅甸的种族灭绝中,他们是缅甸的一个穆斯林族群。婴儿被从母亲怀中抢走扔进火里,人们被杀害,数以百千计的难民。在接受采访时,进行这些行为的缅甸将军表示,我们非常感谢 Facebook 让我们知道“罗辛亚假新闻”,这些人实际上不是人类,他们实际上是动物。现在,Facebook 并不是要促成缅甸罗辛亚人的种族灭绝,不是。相反,发生的是他们想要最大化印象和点击量。结果是,Facebook 的数据科学家发现,如果你拿人们感兴趣的东西并向他们提供稍微更极端的版本,你实际上会得到更多的印象,项目经理们说要最大化这些印象,人们点击了,这就产生了这种情况。潜在的影响是非常巨大和全球性的。这实际上正在发生。这是 2017 年 10 月。正在发生。

问题:我只是想澄清这里发生了什么。所以这是在促进虚假新闻或不准确的媒体吗?是的,让我详细介绍一下,发生的事情是在 2016 年中期,Facebook 解雇了它的人类编辑。所以是人类决定如何在你的主页上排序的。这些人被解雇,被机器学习算法取代。所以这些机器学习算法是由像你们这样的数据科学家编写的,他们有清晰的指标,他们试图最大化他们的预测准确性,并且像“我们认为如果我们把这个东西放在比这个东西更高的位置,我们会得到更多的点击”。结果表明,这些用于在 Facebook 新闻源上放置内容的算法倾向于说“哦,人类的本性是我们倾向于点击那些刺激我们观点的东西,因此更极端版本的我们已经看到的东西”。这对于最大化参与度的 Facebook 收入模型来说是很好的,它在他们所有的关键绩效指标上看起来都很好。那时,有一些负面新闻,我不确定 Facebook 现在放在他们的热门部分的东西是否真的那么准确,但从人们在 Facebook 优化的指标的角度来看,这看起来很棒。所以回到 2016 年 10 月,人们开始注意到一些严重的问题。

例如,在美国,将住房针对某些种族是非法的。这是非法的,然而一个新闻机构发现 Facebook 在 2016 年 10 月确实在做这件事。再次强调,并不是因为数据科学团队中的某个人说“让黑人不能住在好社区”。而是,他们发现他们的自动聚类和分割算法发现了一群不喜欢非裔美国人的人,如果你用这种广告针对他们,那么他们更有可能选择这种住房或其他什么。但有趣的是,即使被告知了三次,Facebook 仍然没有解决这个问题。这就是说这些不仅仅是技术问题。它们也是经济问题。当你开始说你得到报酬的事情(也就是广告),你必须改变你构建这些方式的方式,这样你要么使用更多花钱的人,要么减少对少数群体或其他基于算法的人的针对性,这可能会影响收入。我提到这个原因是因为在你的职业生涯中,你会在某个时候发现自己在一次对话中,你会想“我不确定这在道德上是否可以接受”,而你正在与之交谈的人在心里想“这会让我们赚很多钱”,你永远不会成功地进行对话,因为你在谈论不同的事情。所以当你与比你更有经验和更资深的人交谈时,他们可能听起来像他们知道他们在谈论什么,只要意识到他们的激励并不一定会集中在如何成为一个好人上。就像他们并不是在想如何成为一个坏人,但在我看来,你在这个行业中花的时间越多,你对这些事情的麻木程度就越高,比如也许得到晋升和赚钱并不是最重要的事情。

例如,我有很多擅长计算机视觉的朋友,其中一些人已经创建了似乎几乎是为了帮助威权政府监视他们的公民而量身定制的初创公司。当我问我的朋友们,你们有没有考虑过这种方式的使用,他们通常会对我提出的问题感到有点冒犯。但我要求你们考虑这个问题。无论你最终在哪里工作,如果你最终创建了一个初创公司,工具可以被用于善良或邪恶。所以我并不是说不要创建优秀的计算机视觉目标跟踪和检测工具,因为你可以继续创建一个更好的外科手术干预机器人工具包。我只是说要意识到这一点,考虑一下,谈论一下。

所以我发现这个很有趣。这实际上是一个很酷的事情,meetup.com 做了。他们考虑到了这一点。他们实际上考虑到了这一点。他们认为你知道,如果我们建立一个像我们在课堂上学到的协同过滤系统来帮助人们决定去哪个 meetup。它可能会注意到在旧金山,比起女性,更多的男性倾向于参加技术 meetup,因此它可能会开始决定向更多男性推荐技术 meetup。结果是更多男性会参加技术 meetup,结果是当女性参加技术 meetup 时,她们会觉得哦,这里都是男性,我真的不想去技术 meetup。结果是算法会得到新的数据,表明男性更喜欢技术 meetup,所以继续下去。因此,算法的这种初步推动可能会产生这种恶性循环。最终,你可能会得到几乎全是男性的技术 meetup。因此,这种反馈循环是一个微妙的问题,当你考虑构建算法时,你真的要考虑到你正在改变的行为是什么。

所以另一个有点可怕的例子是在这篇论文中,作者描述了美国许多部门现在正在使用预测性执法算法。那么我们去哪里找即将犯罪的人。你知道,算法简单地反馈给你基本上你给它的数据。所以如果你的警察局过去曾经进行过种族歧视,那么它可能会稍微更频繁地建议你去黑人社区检查是否有人犯罪。结果是你的警察会更多地去黑人社区,结果是他们逮捕更多黑人,结果是数据显示黑人社区更不安全。结果是算法告诉警察,也许你应该更频繁地去黑人社区,依此类推。

这不像是未来可能发生的模糊可能性。这是来自认真研究数据和理论的顶尖学者的记录工作。这些严肃的学术工作表明,不,这正在发生。再次,我相信开始创建这种预测性执法算法的人并没有想过如何逮捕更多黑人。希望他们在想,天哪,我希望我的孩子在街上更安全,我该如何创造一个更安全的社会。但他们没有考虑到这种恶性循环。

关于社交网络算法的这篇文章实际上是最近《纽约时报》上我一个朋友 Renee Diresta 写的,她做了一些令人惊讶的事情。她建立了一个第二个 Facebook 账号,一个假账号。那时她对反疫苗运动非常感兴趣,所以她开始关注一些反疫苗者,并访问了一些反疫苗链接。突然间,她的新闻动态开始充斥着反疫苗者的新闻,以及其他一些东西,比如化学尾迹和深层国家阴谋论等等。于是她开始点击这些内容,她点击得越多,Facebook 推荐的极端离谱的阴谋论就越多。所以现在当 Renee 去那个 Facebook 账号时,整个页面都充满了愤怒、疯狂、极端的阴谋论内容。这就是她看到的一切。所以如果这是你的世界,那么在你看来,这就像是一个不断提醒和证明所有这些东西的连续。所以再次强调,这种失控的反馈循环最终告诉缅甸将军们,他们的 Facebook 主页上罗兴亚人是动物、假新闻,以及其他一切。

很多这些也来自偏见。所以让我们具体谈谈偏见。图像软件中的偏见来自数据中的偏见。所以我认识的大多数在谷歌大脑构建计算机视觉算法的人,很少有人是有色人种。所以当他们用家人和朋友的照片来训练算法时,他们用的是很少有色人种的照片。所以当 FaceApp 决定我们要尝试查看很多 Instagram 照片,看看哪些被点赞最多时,他们并没有意识到,答案是浅色面孔。所以他们建立了一个生成模型让你看起来更“性感”,这是实际照片,这是更性感的版本。所以更性感的版本更白,鼻孔更少,看起来更欧洲化。这显然不受欢迎。再次强调,我不认为 FaceApp 的任何人会说“让我们创造一些让人看起来更白的东西”。他们只是用周围的人的一堆图像来训练它。这也有严重的商业影响。他们不得不撤回这个功能。他们受到了大量的负面反弹,这是应该的。

这里有另一个例子。谷歌照片创建了这个照片分类器,飞机、摩天大楼、汽车、毕业典礼和大猩猩。所以想想这对大多数人来说是什么样子。对大多数人来说,他们看到这个,他们不了解机器学习,他们会说“搞什么鬼,谷歌的某个人写了一些代码把黑人称为大猩猩”。这就是它看起来的样子。我们知道那不是发生的事情。我们知道发生的是谷歌计算机视觉专家团队中没有或只有少数有色人种的人建立了一个分类器,使用他们可以获得的所有照片,所以当系统遇到皮肤较黑的人时,它会认为“哦,我之前主要只见过大猩猩中的这种情况,所以我会把它放在那个类别中”。再次强调,数据中的偏见会导致软件中的偏见,商业影响也非常显著。谷歌因此受到了很多负面公关影响,这是应该的。有人在他们的 Twitter 上发布了这张照片。他们说看看谷歌照片刚刚决定做的事情。

你可以想象第一届由人工智能评选的国际选美大赛发生了什么。基本上结果是所有美丽的人都是白人。所以你可以看到这种图像软件中的偏见,这要归功于数据中的偏见,也要归功于构建团队缺乏多样性。

在自然语言处理中也可以看到同样的情况。这里是土耳其语。O 是土耳其语中没有性别的代词。没有他和她之分。但当然在英语中,我们并没有一个广泛使用的无性别单数代词,所以谷歌翻译将其转换为这个。现在有很多人在网上看到这个并且字面上说“那又怎样?”它正确地反馈了英语中的通常用法。我知道这是如何训练的,就像 Word2vec 词向量一样,它是在谷歌新闻语料库、谷歌图书语料库上训练的,它只是告诉我们事情是如何的。从某种角度来看,这是完全正确的。用来创建这种有偏见算法的有偏见数据实际上是人们几十年来写书和报纸文章的实际数据。但这是否意味着这是你想要创建的产品?这是否意味着这是你必须创建的产品?仅仅因为你训练模型的特定方式导致它最终做出这样的结果,这真的是你想要的设计吗?你能想到这可能会产生什么负面影响和反馈循环吗?如果这些事情中的任何一件让你感到不安,那么现在,幸运的是,你有一个新的很酷的工程问题要解决。我如何创建无偏见的自然语言处理解决方案?现在有一些初创公司开始做这个,并开始赚钱。所以这对你来说是机会。就像嘿,这里有一些人因为他们糟糕的模型而创造出了扭曲的社会结果。你可以去建立一些更好的东西。Word2vec 词向量中的偏见的另一个例子是餐厅评论中排名较低的墨西哥餐厅,因为“墨西哥”这个词在美国新闻和书籍中更常与犯罪相关的词语联系在一起。同样,这是一个正在发生的真实问题。

Rachel 实际上对普通的 Word2vec 词向量进行了一些有趣的分析。她基本上把它们拿出来,根据一些在其他地方进行的研究来看这些类比。所以你可以看到,Word2vec 向量方向显示父亲对医生就像母亲对护士一样。男人对计算机程序员就像女人对家庭主妇一样,等等。所以很容易看出这些词向量中包含了什么。它们在我们今天使用的几乎所有自然语言处理软件中都是基础的。

这里有一个很好的例子。ProPublica 实际上在这个领域做了很多有益的工作。现在许多法官都可以访问判决指南软件。因此,判决指南软件告诉法官对于这个个体,我们建议这种类型的刑罚。当然,法官不懂机器学习,所以他们有两个选择,要么按照软件的建议行事,要么完全忽视它,有些人属于每个类别。对于那些属于按照软件建议行事的人,这里是发生的事情。对于那些被标记为高风险的人,实际上没有再次犯罪的人中,白人约四分之一,非裔美国人约一半。所以,那些没有再次犯罪的人中,如果是非裔美国人,他们被标记为高风险的情况几乎是白人的两倍。而那些被标记为低风险但实际上再次犯罪的人中,白人约一半,非裔美国人只有 28%。所以这是数据,我希望没有人会刻意创造这样的情况。但是当你从有偏见的数据开始,数据显示白人和黑人吸食大麻的比率大致相同,但黑人被监禁的频率大约是白人的 5 倍,美国的司法系统的性质,至少目前来看,是不平等的,不公平的。因此,输入到机器学习模型中的数据基本上会支持这种现状。然后由于负面反馈循环,情况只会变得越来越糟。

现在我要告诉你关于这个有趣的事情,研究员阿贝·龚指出了一些问题。以下是一些正在被问到的问题。所以让我们来看一个。你的父亲是否曾被逮捕过?你对这个问题的回答将决定你是否被关押以及关押多久。现在作为一个机器学习研究员,你认为这可能会提高你算法的预测准确性并获得更好的 R²。可能会,但我不知道。也许会。你试试看,哦,我有了更好的 R²。那么这意味着你应该使用它吗?还有另一个问题。你认为因为一个人的父亲是谁而把他关押更长时间是合理的吗?然而,这些实际上是我们现在问罪犯的问题的例子,然后将其放入一个机器学习系统中来决定他们的命运。再次,设计这个的人可能他们是专注于技术卓越,获得 ROC 曲线下面积的最大值,我发现了这些很好的预测因子,让我又多了 0.02。我猜他们没有停下来思考,这样决定谁应该更长时间被关押是否合理。

因此,将这些放在一起,你可以看到这会变得越来越可怕。我们以 Taser 这样的公司为例,Taser 是一种会给你一个大电击的设备,Taser 设法与一些学术研究人员建立了良好的关系,这些研究人员似乎会说他们要他们说的话,以至于现在如果你看数据,结果表明如果你被电击,你可能会死亡的概率相当高。这并不罕见。然而,他们支付给研究这个问题的研究人员一直回来说“哦不,这与电击无关。他们之后立即死亡完全无关。这只是一个偶然事件,事情发生了”。因此,这家公司现在拥有 80%的身体摄像机市场份额。他们开始收购计算机视觉 AI 公司。他们将尝试使用这些警察身体摄像机视频来预测犯罪活动。那意味着什么?这就像是我现在有一些增强现实显示,告诉我电击这个人,因为他们即将做一些坏事?这是一个令人担忧的方向,所以我确信没有人在 Taser 或他们收购的公司中的数据科学家会认为这是他们想要帮助创造的世界,但他们可能会发现自己或你可能会发现自己处于这种讨论的中心,虽然这不是明确讨论的话题,但你内心可能会有一部分在想“我想知道这可能会被如何使用”。我不知道在这种情况下应该做什么才是正确的,因为你可以询问,当然人们会说“不不不”。那你能做什么?你可以要求一些书面承诺,你可以决定离开,你可以开始研究事情的合法性,比如说,至少保护自己的法律情况。我不知道。想一想你会如何应对。

这些是 Rachel 提出的一些问题,作为需要考虑的事情。如果你正在考虑构建一个数据产品或使用模型,如果你正在构建机器学习模型,那是有原因的。你正在尝试做某事。那么数据中可能存在什么偏见?因为无论数据中存在什么偏见,最终都会成为你预测的偏见,潜在地影响你正在影响的行动,潜在地影响你返回的数据,你可能会得到一个反馈循环。

如果构建它的团队不够多样化,你可能会错过什么?例如,Twitter 的一位高级执行官在选举之前很久就警告了 Twitter 存在严重的俄罗斯机器人问题。那时 Twitter 高管团队中唯一的黑人。唯一的一个。不久之后,他们失去了工作。因此,拥有一个更多样化的团队意味着拥有更多样化的观点、信仰、想法和寻找的事物等等。因此,非多样化的团队似乎会犯更多这样的错误。

我们能审计代码吗?它是开源的吗?检查不同群体之间的不同错误率。我们是否可以使用一个极易解释和易于沟通的简单规则?如果出了问题,我们是否有一个处理问题的好方法?

当我们与人们谈论这个问题时,很多人都去找 Rachel 说我对我的组织正在做的事情感到担忧,我该怎么办[1:36:21]?或者我只是担心我的 toxic workplace,我该怎么办?而 Rachel 往往会说你有考虑过离开吗?他们会说我不想失去工作。但实际上,如果你会编程,你是整个人口的 0.3%。如果你会编程和做机器学习,你可能是整个人口的 0.01%。你是极其极其受欢迎的。所以实际上,显然一个组织不希望你觉得自己可以随时离开找另一份工作,这不符合他们的利益。但这绝对是真的。所以我希望你们在这门课程中能够获得足够的自信,认识到你有能力找到工作,特别是一旦你有了第一份工作,第二份工作就会容易很多。所以这很重要,不仅是为了让你觉得你实际上有能力去做出道德行为,而且也很重要意识到如果你发现自己处在一个 toxic 环境中,这是相当普遍的不幸。在湾区尤其存在很多糟糕的科技文化/环境。如果你发现自己处在这样的环境中,最好的做法就是赶紧离开。如果你没有自信认为自己可以找到另一份工作,你就会被困住。所以这真的很重要。很重要的是要知道你在结束这个项目时拥有非常受欢迎的技能,特别是在你有了第一份工作之后,你现在是一个拥有受欢迎技能和在该领域就业记录的人。

问题:这只是一个广泛的问题,你知道人们正在做一些什么来处理数据中的偏见吗[1:38:41]?你知道,这目前是一个有争议的话题,有人试图使用算法方法,他们基本上试图说我们如何识别偏见并将其减去。但我知道的最有效的方法是试图在数据层面上处理它。所以从一个更多元化的团队开始,特别是一个团队包括来自人文学科的人,比如社会学家、心理学家、经济学家,了解反馈循环和对人类行为的影响,他们往往配备了识别和跟踪这类问题的良好工具。然后尝试将解决方案纳入到过程中。但我无法告诉你有一个标准的处理方法,告诉你如何解决它。如果有这样的东西,我们还没有找到。简短的答案是,需要一个多样化的聪明团队意识到问题并努力解决。

评论:这只是针对整个班级的一个普遍性建议,如果你对这些感兴趣,我读过一本很酷的书,Jeremy 你可能听说过,Cathy O’Neil 的《Weapons of Math Destruction》。它涵盖了很多相同的内容[1:40:09]。是的,谢谢你的推荐。Kathy 很棒。她还有一个 TED 演讲。我没能完成这本书。它太令人沮丧了。我只是说“不要再看了”。但是,它确实很好。

好的。就这样了。谢谢大家。对我来说,这真的很紧张。显然,这原本是我和 Rachel 分享的事情。所以我最终做了我一生中最困难的事情之一,那就是独自教授两个人的课程,照顾生病的妻子和一个幼儿,还要学习深度学习课程。而且还要用我刚写的新库来完成所有这些。所以我期待着能好好休息一下。但这一切都是完全值得的。因为你们太棒了。我对你们对我给予的机会作出的反应以及我给予你们的反馈感到非常高兴。所以恭喜。

相关文章
|
27天前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
自动化测试的未来:AI与机器学习的融合
【9月更文挑战第29天】在软件测试领域,自动化测试一直是提高测试效率和质量的关键。随着人工智能(AI)和机器学习(ML)技术的飞速发展,它们正逐步渗透到自动化测试中,预示着一场测试革命的来临。本文将探讨AI和ML如何重塑自动化测试的未来,通过具体案例展示这些技术如何优化测试流程,提高测试覆盖率和准确性,以及它们对测试工程师角色的影响。
20 7
|
2天前
|
机器学习/深度学习 人工智能 算法
揭秘AI:机器学习的魔法与现实
【9月更文挑战第33天】在这篇文章中,我们将一探究竟,揭开机器学习神秘的面纱,通过直观的解释和代码示例,了解其背后的原理。无论你是初学者还是有一定基础的学习者,这篇文章都将为你提供有价值的信息。让我们一起探索机器学习的世界,发现它的奥秘和魅力!
|
6天前
|
机器学习/深度学习 人工智能 数据挖掘
探索自动化测试的未来:AI与机器学习的融合
【9月更文挑战第29天】在软件测试领域,自动化测试一直是提高效率和准确性的关键。但随着技术的发展,特别是人工智能(AI)和机器学习(ML)的兴起,我们见证了一个新时代的到来——自动化测试的未来正逐渐被重新定义。本文将探讨AI和ML如何改变自动化测试的面貌,从智能测试脚本的生成到测试结果的深度分析,我们将一探究竟这些前沿技术是如何使测试流程更加智能化、高效化,并预测它们将如何塑造软件测试的未来趋势。
|
11天前
|
机器学习/深度学习 人工智能 自动驾驶
揭秘AI的魔法:机器学习在图像识别中的应用
【9月更文挑战第24天】当AI技术遇到图像识别,就像是打开了新世界的大门。本文将深入浅出地介绍机器学习在图像识别领域的应用,通过实例和代码展示如何让机器“看懂”图片。让我们一起探索AI的魔法,开启一段科技与创新的旅程!
|
20天前
|
机器学习/深度学习 人工智能 测试技术
自动化测试的未来:AI与机器学习的融合之路
【9月更文挑战第15天】在软件测试领域,自动化一直被视为提高效率和精确度的关键。随着人工智能(AI)和机器学习(ML)技术的不断进步,它们已经开始改变自动化测试的面貌。本文将探讨AI和ML如何赋能自动化测试,提升测试用例的智能生成、优化测试流程,并预测未来趋势。我们将通过实际代码示例来揭示这些技术如何被集成到现有的测试框架中,以及开发人员如何利用它们来提高软件质量。
51 15
|
23天前
|
机器学习/深度学习 人工智能 算法
探索AI的奥秘:机器学习入门之旅
【8月更文挑战第43天】本文将带领读者开启一段奇妙的学习之旅,探索人工智能背后的神秘世界。我们将通过简单易懂的语言和生动的例子,了解机器学习的基本概念、算法和应用。无论你是初学者还是有一定基础的学习者,都能从中获得启发和收获。让我们一起踏上这段激动人心的学习之旅吧!
|
28天前
|
机器学习/深度学习 人工智能 PyTorch
AI计算机视觉笔记三十二:LPRNet车牌识别
LPRNet是一种基于Pytorch的高性能、轻量级车牌识别框架,适用于中国及其他国家的车牌识别。该网络无需对字符进行预分割,采用端到端的轻量化设计,结合了squeezenet和inception的思想。其创新点在于去除了RNN,仅使用CNN与CTC Loss,并通过特定的卷积模块提取上下文信息。环境配置包括使用CPU开发板和Autodl训练环境。训练和测试过程需搭建虚拟环境并安装相关依赖,执行训练和测试脚本时可能遇到若干错误,需相应调整代码以确保正确运行。使用官方模型可获得较高的识别准确率,自行训练时建议增加训练轮数以提升效果。
|
28天前
|
人工智能 开发工具 计算机视觉
AI计算机视觉笔记三十:yolov8_obb旋转框训练
本文介绍了如何使用AUTODL环境搭建YOLOv8-obb的训练流程。首先创建虚拟环境并激活,然后通过指定清华源安装ultralytics库。接着下载YOLOv8源码,并使用指定命令开始训练,过程中可能会下载yolov8n.pt文件。训练完成后,可使用相应命令进行预测测试。
|
27天前
|
人工智能 并行计算 测试技术
AI计算机视觉笔记三十一:基于UNetMultiLane的多车道线等识别
该项目基于开源数据集 VIL100 实现了 UNetMultiLane,用于多车道线及车道线类型的识别。数据集中标注了六个车道的车道线及其类型。项目详细记录了从环境搭建到模型训练与测试的全过程,并提供了在 CPU 上进行训练和 ONNX 转换的代码示例。训练过程约需 4 小时完成 50 个 epoch。此外,还实现了视频检测功能,可在视频中实时识别车道线及其类型。
下一篇
无影云桌面