Amazonは、大規模言語モデルによる回答の精度を数学的に検証し、事実に基づかない情報(ハルシネーション)を防ぐための「自動推論チェック(プレビュー版)」を新たに導入しました。人工知能アプリケーションに安全策を導入する「Amazon Bedrock Guardrails」により、個人情報の削除やコンテンツの安全強化が可能です。
新しい自動推論チェックでは、論理的なアルゴリズムによる検証を用い、生成された情報が既知の事実と合致するようにします。
これにより、例えば人事方針や製品情報、運用フローに関する情報の検証が可能になり、AIが生成する情報の信頼性と精度が向上します。
このサービスは、米国オレゴン州のAWSリージョンでプレビュー版として利用できるようになっており、今後数週間のうちにAmazon Bedrockコンソールからサインアップが可能になる予定です。
より信頼性の高いAIアプリケーション構築を支援するAmazonのこの新機能に是非注目してください。
出典 : Prevent factual errors from LLM hallucinations with mathematically sound Automated Reasoning checks (preview) https://aws.amazon.com/blogs/aws/prevent-factual-errors-from-llm-hallucinations-with-mathematically-sound-automated-reasoning-checks-preview/