Godna uwagi informacje

Individuals Simple read

Climate Change, Personal Data & AI

Practical use of personal data and AI to save the planet. Using AI algorithm to turn personal photos of forest and nature into a blend of fire and ash to help us visualize the issues of climate change.

Mudanças climáticas, dados pessoais e IA

Na quarta-feira, o Congresso dos Estados Unidos interrogou os CEOs do Google, Apple, Facebook e Amazon, e examinou questões relacionadas ao domínio do GAFA no mercado. Os dados foram um dos tópicos subjacentes a essas investigações.

気候変動、個人データと AI

地球を救うための個人データとAIの活用。 AI アルゴリズムを使用して、森林と自然の個人的な写真を火と灰の混合に変え、気候変動の問題を視覚化するのに役立ちます。

Detecção de cyberbullying com restrições de equidade

O cyberbullying é um fenômeno adverso generalizado entre as interações sociais online na sociedade digital de hoje. Embora numerosos estudos computacionais se concentrem em aprimorar o desempenho da detecção de cyberbullying de algoritmos de aprendizado de máquina, os modelos propostos tendem a apresentar e reforçar vieses sociais não intencionais. Neste estudo, tentamos responder à pergunta de pesquisa "Podemos mitigar o viés não intencional dos modelos de detecção de cyberbullying, orientando o treinamento do modelo com restrições de equidade?".

Cyberbullying Detection with Fairness Constraints

Cyberbullying is a widespread adverse phenomenon among online social interactions in today's digital society. While numerous computational studies focus on enhancing the cyberbullying detection performance of machine learning algorithms, proposed models tend to carry and reinforce unintended social biases. In this study, we try to answer the research question of "Can we mitigate the unintended bias of cyberbullying detection models by guiding the model training with fairness constraints?".

公平性の制約(Fairness Constraints)によるネットいじめの検出

ネットいじめは、今日のデジタル社会におけるオンライン社会的相互作用の中で広く見られる有害な現象です。多くの計算科学は機械学習アルゴリズムを用いたネットいじめの検出パフォーマンスの向上に焦点を当てていますが、そこで提案されたモデルは、意図しない社会的偏見をもたらす傾向にあります。この研究では、「公平性の制約を備えたトレーニングによってモデルを導出することで、ネットいじめ検出モデルの意図しないバイアスを軽減できるか」という調査質問に答えようとします。

AI Fairness

Ruoss et al. published the first method to train AI systems with mathematically provable certificates of individual fairness. Full source code is available on Github.