概要
本記事は、ML(機械学習)とLLM(大規模言語モデル)の普及により登場する新たな仕事について解説。 人間とMLシステムの境界で必要となる職種や役割を具体的に紹介。 プロンプト専門家、品質管理、統計解析、モデル訓練、説明責任、行動解析など多岐にわたる業務を整理。 MLの普及に伴う社会的・倫理的課題にも言及。 今後の職業構造や社会的責任の変化について考察。
ML時代の新しい仕事
- ML(機械学習)とLLM(大規模言語モデル) の普及による新たな職種の台頭
- 人間とMLシステムの境界領域 で発生する多様な業務
- プロンプト専門家(Incanters) によるモデルへの最適入力設計
- プロセスエンジニア による品質管理とエラー検出体制の構築
- 統計エンジニア によるML出力のばらつき・偏りの測定と制御
- モデルトレーナー による高品質な訓練データの作成とチェック
- 説明責任を担う“Meat Shields” としての人材配置
- ハルスピス(Haruspices) によるモデル行動の分析と説明
プロンプト専門家(Incanters)
- LLMは入力方法によって性能が大きく変化 する特性
- 脅しや虚偽の報酬提示 など、独特なプロンプトテクニックの存在
- 文脈長やトークンの影響 を考慮した入力設計の重要性
- Claudeなど特定LLMへの最適な“話しかけ方” を極める専門家の出現
- 従来のプログラマーから、LLM操作専門家への転換 の兆し
プロセスエンジニア
- LLM出力の予測不可能性 に対応する品質管理の必要性
- 意図的なエラー挿入と編集工程によるチェック体制 の導入例
- LexisNexis等との連携やワークフローシステムの統合 による効率化
- 人材教育・レビュー強化・自動化支援の調整 を担う役割
- 手作業と自動化のバランス評価 による最適プロセス設計
統計エンジニア
- LLMの出力結果のばらつき・偏り の測定と制御
- 選択肢の順序など、細かな要因による結果の違い を分析
- 心理測定学(Psychometrics)に類似したアプローチ の適用
- 言語やドメインごとのパフォーマンス差 への対応
- 複雑で専門的な統計モデル構築 の必要性
モデルトレーナー
- 高品質な訓練データの確保 が困難化する現状
- 偽情報や誤情報の混入リスク への対策
- 2023年以前の信頼できる資料 の利用提案
- 専門家による訓練データ作成・評価・ベンチマーク策定 の重要性
- 大規模な人材動員による“人間知識の収穫” 現象
- 労働環境の悪化や低賃金、労働組合不在 の課題
説明責任を担う“Meat Shields”
- 経営層や管理職がLLM導入による責任回避のために人間を配置 する実態
- 法的・社会的責任を負う“生身の人間” の必要性
- LLM利用時の失敗や問題発生時の責任転嫁構造
- 外部委託や下請けの“スケープゴート化” のリスク
- “モラルクランプルゾーン”としての人間の役割 (Madeline Clare Elishの概念)
ハルスピス(Haruspices)
- モデルの誤作動や不適切な判断の原因究明 を担う専門家
- 入力・出力・内部状態の分析による行動説明
- 個別事例の深掘り調査と統計的な全体分析 の両立
- ML企業、ユーザー、ジャーナリスト、法廷、監督機関など多様な立場での活躍
- 社会的説明責任や透明性の確保 への貢献
ML社会における職業構造と責任の変化
- ML・LLMの浸透により、既存の職業構造が大きく変化
- 人間の専門性や責任が、機械と密接に補完し合う新時代
- 社会的・倫理的課題(説明責任、労働環境、情報の信頼性) の顕在化
- 今後も新たな職種や役割が次々に誕生する可能性
- 技術進化と社会制度の連携による持続可能なML活用社会の構築