Forum Posts

Sourav Kumar
Aug 01, 2022
In Music Forum
算法偏差所产生的损害的乘数效应是一种完美的序列化歧视,它可以通过多种方式实现其影响并以自动化的方式完美地强化先前存在的压迫性结构。这种偏见导致一切非霸权和多数的隐形,刻板印象产生的污名化的阐述和重申,象征性值得代表的东西的不平衡和选择性,以及所有被呈现为非系统性的东西的中和 算法偏见分裂并产生了不存在的一切不存在的不真实性,这些不遵循由统治者的命令理想化的模式,并加强了我们每天已经经历的二元论和歧视, 这种偏差可以通过以下方式发生:使用本身具有歧视性的数据集训练算法,通过使用包含潜在歧视性偏差的数据集,通过过多的历史数据导致数据倍增的元素过大。 或者通过有意识的选择来低估不是霸权的东西。 最后,并且无意穷尽所有现有的算法偏差表现形式,这也可能是设计技术限制的结果;算法在新的使用环境中的意外使用以及与预期不同的公众使用算法的结果,或者是对重新插入的数据的解释的结果,并在同一算法系统中成倍增加了歧视。对于算法偏差导致的歧视是否可以避免的问题,一个坦率而否定的答案是可能的:在目前的科学状态下是不可能避免的,这就是为什么考虑到这一点,不应该使用人工智能 电子邮件列表 在与行使我们的权利有关的关键领域,例如视频监控/生物识别监控、分析、电子监控、司法或行政决策、导致访问权限分配和确定我们的权利范围的决策,以及其他领域(例如,健康、信用/金融、住房、教育、消费等)。 从另一个角度来看,所谓的“透明度”也不能解决这种冲突,因为即使有透明度,数据所有者的信任危机仍然存在于可能以非自愿和知情的方式进行的所有事情上。透明度并不能保证执行者的忠诚,因为一个人可能是透明的和不真诚的。做出司法或行政决定,做出决定,其结果是分配访问权和确定我们的权利扩展,以及其他领域(例如,健康、信贷/融资、住房、教育、消费等)。从另一个角度来看,所谓的“透明度”也不能解决这种冲突,因为即使有透明度,数据所有者的信任危机仍然存在于可能以非自愿和知情的方式进行的所有事情上。透明度并不能保证执行者的忠诚,因为一个人可能是透明的和不真诚的。
通过过多的历史数据导致数据倍增 content media
0
0
2

Sourav Kumar

More actions