AIに「どの政党がこの政策を支持しているか」と聞く人は、確実に増えている。問題はその回答が信頼できるかどうかだ。
AnthropicがAn update on our election safeguardsを公開した。US中間選挙をはじめとする各国の主要選挙を前に、Claudeの政治的中立性をどう担保するかを説明するものだ。政治的バイアスの測定と防止、投票手続きに関する正確な情報提供、選挙関連の悪用防止——この三つが柱となっている。
注目したいのは、スコアの公開だ。Opus 4.7は95%、Sonnet 4.6は96%の政治的中立性スコアを達成。評価方法論とデータセットはオープンソースで公開されており、第三者が再現・検証できる設計になっている。
「政治的に中立である」と主張するだけでなく、測定可能な指標として外部に開く——この一歩が持つ意味は小さくない。
AIが社会的信頼を得るためには、「そう設計されている」だけでは足りない。「どのような基準で評価され、どのスコアを達成したか」が可視化される必要がある。それが内部の主張に留まらず、外部が検証できる形で公開されているとき、初めて信頼の基盤になりうる。
AIが選挙情報の主要な参照先になるかはまだわからない。ただ、評価の透明性を先に設計しておくことで、AIが情報インフラとして機能するための素地が生まれる。「測れること」を信頼の出発点に置くこの設計思想は、今後AIが社会インフラに近づいていくうえで一つの参照点になりうる。
出典: An update on our election safeguards — Anthropic
関連記事
- Anthropic names Theo Hourmouzis General Manager of Australia & New Zealand and officially opens Sydney office
- Claude for Creative Work
- Building a new enterprise AI services company with Blackstone, Hellman & Friedman, and Goldman Sachs
参考文献
コメント