小規模言語モデル(SLM)がGenAIを超えた!バックグラウンドチェック効率化の舞台裏


ご覧いただきありがとうございます🩵
Blue Bayesでは、毎日生成AIに関する海外ニュースを最速で日本にお届けします。
忙しい人は、まとめだけでも見てみてください⭐️


バナー

Checkr ditches GPT-4 for a smaller genAI model, streamlines background checks

本日はこちら
引用:https://www.computerworld.com/article/3541362/checkr-ditches-gpt-4-for-a-smaller-genai-model-streamlines-background-checks.html

忙しい人はここだけ!|本日のまとめ

🚀 Checkr、小規模言語モデルで効率化達成!

📊 主な事実:
• GPT-4では88%精度、RAGでも79%精度
• 自社データで調整したSLMで97%精度達成
• レスポンスタイム0.5秒に短縮

🔮 AI技術で人事業務が大きく変わる可能性大!効率的で高品質なバックグラウンドチェックの時代へ🎉

では、内容に入ります。

Checkrのバックグラウンドチェック効率化への挑戦

Checkrは、バックグラウンドチェックプロセスの効率化を目指し、先進の技術を導入しています。特に、生成AI(GenAI)や機械学習(ML)ツールを活用していますが、ここでの課題は、これまでの方法では処理が難しい2%の非構造化データでした。

GPT-4とRAGの試用結果

OpenAIのGPT-4を試用したところ、88%の精度しか達成できず、お客様が求める基準には達しませんでした。さらに、Retrieval Augmented Generation(RAG)を追加しても、難易度の高いデータに対しては精度が79%まで低下し、レスポンスタイムも長くなるという結果に至りました。

小規模言語モデル(SLM)の導入と成果

この状況を打開するために、Checkrはオープンソースの小規模言語モデル(SLM)を自社データで微調整し、検討しました。結果として、精度は97%に向上し、レスポンスタイムも0.5秒と非常に高速化しました。

SLMの利点

このSLMは特定の業務分野に特化できるだけでなく、コスト面でも優れており、セキュリティの観点からも有利でした。

LLMとRAGの課題と微調整の効果

Predibaseの共同CEOと共に、LLMへのデータ準備の難しさや、RAGの長所と複雑なケースでの課題、さらに微調整がもたらす効果について対談しました。確かに、一部の誤りは存在しましたが、応答の期待値を事前に設定しておくことで、チェックは容易になりました。

結論:バックグラウンドチェックの革新

このオープンソースのSLMを導入したことで、Checkrはバックグラウンドチェックを大幅に効率化し、より高品質で迅速なサービスを提供できるようになったのです。このようなテクノロジーは、未来の人事業務を変革する鍵となるかもしれませんね。

Blue Bayesでは、マーケティング業務を加速させる業務支援を行っております。チャットボットの開発やSNS自動化など、個人から法人まで問い合わせを受け付けております。

お問い合わせ


PAGE TOP