Security
AI活用のセキュリティについて
最終更新日:2026年4月8日
アララト(以下「当社」)は、AI研修・AI導入支援サービスの提供において、お客様の情報セキュリティを最優先事項と位置づけています。 人材紹介・派遣業界では個人情報・候補者情報など機微なデータを扱うため、AI活用に際して特に高い水準のセキュリティ対応が必要です。 本ページでは、当社のAI活用に関するセキュリティ方針を説明します。
01
研修で使用するAIツールの安全性
- — 当社の研修では、主にAnthropic社のClaude、OpenAI社のChatGPTなどの商用AIサービスを使用します。
- — 研修の演習では、実際の個人情報・候補者情報・クライアント情報は使用しません。必ずマスキングまたは架空のサンプルデータを使用します。
- — AIツールへの入力内容は、各サービスのプライバシーポリシーおよびデータ処理方針に従って管理されます。商用プランでは学習利用が制限されています。
02
個人情報・機密情報の取り扱い
- — お客様からいただく情報(会社名・担当者名・メールアドレス等)は、当社のプライバシーポリシーに従い管理します。
- — 研修実施にあたりお客様の業務情報をヒアリングする場合がありますが、第三者への開示・利用はしません。
- — 研修内容のカスタマイズに必要な情報は、守秘義務を前提にお伺いします。
03
受講企業へのガバナンス支援
- — 当社の研修プログラムには、「社内AIガバナンス整備」のセッションが含まれます。
- — 職業安定法・個人情報保護法の観点を踏まえ、AIに入力してはいけない情報の定義・承認フロー・社内ルール策定を支援します。
- — チームプランでは、社内AIルール・ガイドラインのサンプル作成支援が含まれます。
04
AIツール選定の基準
- — 研修で紹介・使用するAIツールは、商用プランでの学習利用オプトアウト対応を確認の上、選定します。
- — 入力データがモデル学習に使われないよう、APIプランまたは商用プランの利用を推奨します。
- — 新たなリスクが確認された場合は、速やかにカリキュラムを見直します。
05
情報セキュリティへの継続的な取り組み
- — 当社は生成AIのセキュリティ動向を継続的にモニタリングし、研修内容に反映します。
- — セキュリティに関する疑問・懸念がある場合は、研修前・研修中いつでもご相談ください。
- — 本ポリシーは必要に応じて更新します。変更がある場合は本ページにて告知します。