AI時代のデザイン思考ツール
AIツールがデザイン思考の5つのフェーズをどう加速するか。共感フェーズのインタビュー分析からプロトタイピングの自動生成まで、実務で使えるAI×デザイン思考の組み合わせを解説する。
AIツールがデザイン思考の5つのフェーズをどう加速するか。共感フェーズのインタビュー分析からプロトタイピングの自動生成まで、実務で使えるAI×デザイン思考の組み合わせを解説する。
デザイン思考のワークショップで「AIを使えば、もっと速くできるのでは?」という声が増えている。答えはイエスでありノーだ。 AIは思考の代替にはならないが、思考の材料を集め、整理し、形にする速度を劇的に上げる 。各フェーズでどう使い分けるかが鍵になる。デザイン思考の5フェーズそれぞれでの活用法を見ていく。
まず切り分けておくべきことがある。AIが得意なのは 大量の情報の処理・パターン認識・素案の高速生成 だ。一方、苦手なのは「人間の感情を肌で感じること」「文脈を踏まえた判断」「まだ誰も言語化していないインサイトの発見」である。
デザイン思考の本質は、人間の複雑な課題に人間として向き合うプロセスにある。AIは優秀な「手足」であって「頭脳」ではない。この前提を持ったうえで、各フェーズの活用法を見ていく。
ユーザーインタビューの最大のボトルネックは、録音を聞き返して分析する時間だ。60分のインタビューを精読するのに3〜4時間かかることも珍しくない。
AIの文字起こしツール(Otter.ai、Whisperベースのツール等)を使えば、 インタビュー直後に全文テキストが手に入る 。そこからLLMに要約と感情分析を依頼すれば、発言の中で特に感情が動いた箇所、繰り返し出てくるテーマ、矛盾する発言をハイライトできる。
ただし、AIの要約を「インサイト」と混同してはならない。実際にやってみると分かるが、AIが拾うのは「頻出キーワード」であって「行間に隠れた本音」ではない。要約はあくまで下処理。 そこから何を読み取るかは、人間がインタビューの場にいた者にしかできない 。
ユーザーインタビューの手法そのものをAIに任せるのは危険だ。「聞く」という行為の中で生まれる非言語情報——表情、間、声のトーン——こそが共感の核になる。
アフィニティ・ダイアグラムは、付箋に書いた観察メモをグルーピングして構造を見出す手法だ。100枚以上の付箋を分類するのに、熟練のファシリテーターでも2〜3時間かかる。
LLMに付箋の内容をテキストで渡し、「類似するものをグルーピングし、各グループに名前をつけて」と指示すれば、 数分でたたき台が出来上がる 。Miro AIやFigJam AIにはこの機能が組み込まれている。
AIのグルーピングをそのまま採用するのではなく、 「AIの分類と自分たちの分類がどう違うか」を議論のトリガーにする 。AIは表面的な語彙の類似でまとめがちだが、人間は文脈や意図で分類する。そのギャップが、チームの思考を深める材料になる。
Crazy Eightsのような短時間アイデア出しで行き詰まったとき、AI画像生成ツール(Midjourney、DALL-E 3、Stable Diffusion等)が突破口になることがある。「高齢者が楽しそうに料理をしているキッチン」のようにキーワードを投げると、 チームが無意識に持っていたバイアスを視覚的に揺さぶる画像 が出てくる。
ワークショップでよく起こるのは、AIが生成した「予想外のビジュアル」がきっかけで、それまで出なかった角度のアイデアが生まれることだ。AIの画像は完成形ではなく、思考のトリガーとして使う。
LLMに「この課題に対して、50個のアイデアを出して。うち10個は非現実的なものにして」と指示する方法もある。量を出すことに特化したAIの特性を活かし、 人間だけでは到達しにくい「ありえない発想」を意図的に混ぜ込む 。使えないアイデアが9割でも、残り1割が議論の種になれば十分だ。
プロトタイプフェーズでAIの恩恵が最も大きい。Figma AI、v0(Vercel)、Google Stitch(旧Galileo AI)等のツールは、テキストの説明からUIモックアップを数秒で生成する。 「検索結果画面、カード型レイアウト、フィルター付き」と書くだけでプロトタイプのたたき台が手に入る 。
従来、デザイナーが半日かけて作っていたモックアップの初版を、AIが数分で出す。デザイナーはゼロからの構築ではなく、AIの出力を叩き台にした 編集と改善 に時間を使える。
Cursor、GitHub Copilot等のAIコーディングツールを使えば、インタラクティブなプロトタイプも短時間で作れる。ただし、ここでも 目的を見失わないことが重要 だ。プロトタイプの目的は「学ぶこと」であって「完成品を作ること」ではない。AIが高速にコードを吐くからといって、過剰に作り込むと改善のコストが上がり、「捨てられないプロトタイプ」になってしまう。
ユーザビリティテストの録画をAIに分析させると、 ユーザーが操作に詰まった箇所のタイムスタンプ、表情の変化、発言のセンチメント を自動で抽出できる。手動で5人分の録画を見返す時間が大幅に削減される。
Hotjar、Microsoft Clarity等のヒートマップツールにもAI分析機能が搭載されるようになった。クリックパターン、スクロール深度、離脱ポイントを AIが自動で異常検知し、「ここに問題がありそうだ」と提示 してくれる。
ただし、テストフェーズで最も重要なのは「なぜそう行動したか」の理解であり、「何が起きたか」のデータ収集ではない。AIはWhatを高速に処理するが、Whyは人間が対話を通じて掘り下げるしかない。
全フェーズに一気にAIを導入しようとすると、ツール選定だけで疲弊する。まずは 1つのフェーズ、1つのタスク から始める。推奨は「インタビューの書き起こし」か「プロトタイプのモックアップ生成」。効果が実感しやすく、チームの抵抗感も少ない。
AIが生成したペルソナ、ジャーニーマップ、UIモックアップを、チームの議論を経ずにそのまま採用するケースが増えている。これは デザイン思考の自殺行為 だ。プロセスの中で「考える」こと自体が、チームの共通理解とオーナーシップを育てる。AIの出力はあくまで素材であり、チームの議論と判断を経て初めて意味を持つ。
AIツールの多くはサブスクリプション課金で、チーム全体で使うと月額コストが膨らむ。 「手作業で30分以上かかるタスク」にだけAIを適用 するルールを設けると、コストとリターンのバランスが取りやすい。書き起こしや画像生成は費用対効果が高い。ブレインストーミングそのものをAIに丸投げするのは論外だが。
デザイン思考の5フェーズそれぞれで、AIは 情報処理の速度を上げ、試行錯誤のサイクルを短縮 する。共感の文字起こし、定義のクラスタリング、創造のアイデア発散、プロトタイプの生成、テストの分析。どれもAIが入ることで、人間が「考える」時間を増やせる。
ただし、 「考える」という行為そのものはAIに委ねてはならない 。ユーザーの目を見て話を聞くこと。矛盾するデータの前で悩むこと。紙とペンで手を動かして形にすること。それがデザイン思考の核であり、AIでは代替できない部分だ。
AIツールは、人間の思考を拡張する道具として使い倒す。だが、道具に使われてはならない。