dataway

パーソナルデータ利活用の未来について考えるメディア

公平性を実現する信用スコアリングモデル「ZAML Fair」とは?

f:id:show_motto:20190323232025p:plain

AIによる信用スコアリングにおいて、「公平性をいかに担保するか」は重要な問題だ。

そこに人種などによる差別化があってはならないとされている。

この問題に対して、信用スコアリングモデルの SaaS 提供を行っている ZestFinance では、「ZAML Fair」という公平性を実現できる新たなアルゴリズムを発表した1

本記事では、その「ZAML Fair」について迫っていこう。

ZestFinance全般についてはまず以下の記事をご確認いただきたい。 www.dappsway.com

ZAML Fair が取り組む課題

アメリカでは、マイノリティーに属する人種が、白人と比較して、住宅ローンの審査通過率が低いという調査結果がある。

たとえば、WUNC、The Center for Investigative Reporting’s Reveal Show、the Associated Press によって行われた住宅ローン情報開示法(Home Mortgage Disclosure Act)についての調査では、コンベンショナルローン2において、マイノリティー人種と白人で二倍近くの差が生じていた3

北カリフォルニアにおける人種によるローン拒否率の差異(出典:WUNC)
北カリフォルニアにおける人種によるローン拒否率の差異(出典:WUNC)

このような傾向は、全米61の都市で認められたという。

もちろん、ローン申請者の収入や申請金額、居住地域などを考慮した上での結果だ。

米国では、雇用、住宅関連、ローンの3つの分野について、差別的な取り扱いをすることは法律で禁じられている4

つまり、上記のような人種によるバイアスが入ってしまうことは、企業にとって法的にも倫理的にもリスクとなる。

このような課題を解決するべく、新たにリリースされたのが「ZAML Fair」というわけだ。

ZAML Fair とは?

ZAML Fair は、公平性を実現できる新たな信用スコアリングのアルゴリズムだ。

2019年3月19日に ZestFinance によって発表された[^1]。

ZestFinance では、以前から「ZAML」という信用スコアリングアルゴリズムを提供していたが、ZAML Fair はその中に組み込まれる形となっている。

ZAML Fair では、差別的なデータによる影響を減らしつつスコアリングのパフォーマンスは落とさないという両軸を成立させている。

仕組みとしては、各変数となるデータがどれだけバイアスのかかった結果につながっているかをランク付けし、自動的にそのようなバイアスにつながる変数による影響をなくしてくれる。

実証実験において差別的なギャップが軽減

ZAML Fair では、いくつかの住宅ローン提供企業において実証実験を行った。

その実証実験によると、ヒスパニック系アメリカ人と白人との審査通過率のギャップを70%、黒人と白人のギャップの40%以上も削減する効果があったという。

これは、17.2万人のマイノリティーに属する家族に住居を届けることにつながる数字だ。

このように、実証実験でも効果が認められており、今後にも期待ができそうだ。

まとめ

信用スコアは、住宅ローンなどその人の生活に大きな影響を及ぼしうる性質があるため、それだけその算出には慎重になる必要がある。

信用スコアが普及した世界では、不適切なスコアリングにより、不便を被った人から訴訟が起きるかもしれない。

信用スコア事業者は、このようなリスクとも寄り添っていく必要がある。

そのような中、ZAML Fair のようなバイアスを取り除いてくれるアルゴリズムは、「痒いところに手が届くツール」といえるだろう。

日本でも信用スコアサービスが一般化するにつれ、このようなサービスあるいは機能はニーズが出てくるかもしれない。

理解が深まる記事をご紹介

ZestFinanceやZAMLの仕組みについて深く知りたい方はこちら。 www.dappsway.com

「日本でも信用スコアが普及するのか?」という点についてはこちら。 www.dappsway.com