ご覧いただきありがとうございます🩵
Blue Bayesでは、毎日生成AIに関する海外ニュースを最速で日本にお届けします。
忙しい人は、まとめだけでも見てみてください⭐️
Checkr ditches GPT-4 for a smaller genAI model, streamlines background checks
本日はこちら
引用:https://www.computerworld.com/article/3541362/checkr-ditches-gpt-4-for-a-smaller-genai-model-streamlines-background-checks.html
忙しい人はここだけ!|本日のまとめ
🚀 Checkr、小規模言語モデルで効率化達成!
📊 主な事実:
• GPT-4では88%精度、RAGでも79%精度
• 自社データで調整したSLMで97%精度達成
• レスポンスタイム0.5秒に短縮
🔮 AI技術で人事業務が大きく変わる可能性大!効率的で高品質なバックグラウンドチェックの時代へ🎉
では、内容に入ります。
Checkrのバックグラウンドチェック効率化への挑戦
Checkrは、バックグラウンドチェックプロセスの効率化を目指し、先進の技術を導入しています。特に、生成AI(GenAI)や機械学習(ML)ツールを活用していますが、ここでの課題は、これまでの方法では処理が難しい2%の非構造化データでした。
GPT-4とRAGの試用結果
OpenAIのGPT-4を試用したところ、88%の精度しか達成できず、お客様が求める基準には達しませんでした。さらに、Retrieval Augmented Generation(RAG)を追加しても、難易度の高いデータに対しては精度が79%まで低下し、レスポンスタイムも長くなるという結果に至りました。
小規模言語モデル(SLM)の導入と成果
この状況を打開するために、Checkrはオープンソースの小規模言語モデル(SLM)を自社データで微調整し、検討しました。結果として、精度は97%に向上し、レスポンスタイムも0.5秒と非常に高速化しました。
SLMの利点
このSLMは特定の業務分野に特化できるだけでなく、コスト面でも優れており、セキュリティの観点からも有利でした。
LLMとRAGの課題と微調整の効果
Predibaseの共同CEOと共に、LLMへのデータ準備の難しさや、RAGの長所と複雑なケースでの課題、さらに微調整がもたらす効果について対談しました。確かに、一部の誤りは存在しましたが、応答の期待値を事前に設定しておくことで、チェックは容易になりました。
結論:バックグラウンドチェックの革新
このオープンソースのSLMを導入したことで、Checkrはバックグラウンドチェックを大幅に効率化し、より高品質で迅速なサービスを提供できるようになったのです。このようなテクノロジーは、未来の人事業務を変革する鍵となるかもしれませんね。
Blue Bayesでは、マーケティング業務を加速させる業務支援を行っております。チャットボットの開発やSNS自動化など、個人から法人まで問い合わせを受け付けております。