DocShit
ストックにはログインが必要です
LLMに渡る前に文書を安全化する
Artificial Intelligence
GitHub
Security
LLM利用時のセキュリティを重視する文書サニタイズツール。PDFおよび DOCX 形式のファイルを対象に、プロンプトインジェクション、隠しテキスト、悪意のあるメタデータを事前に検出・無効化して、安全なAI文脈の構築を支援します。開発者自身の課題で見つかったインジェクション問題を起点に、さまざまな文書タイプに対応する検出機能へと進化。無駄な情報を削ぎ、本質的な内容だけをAIに渡す設計思想を掲げ、将来的な拡張性も想定しています。
投票数: 0