PM OS
الوحدة 2أساسي110 دقيقة

التعاطف والاكتشاف

اكتسب الحق في البناء بفصل الطلب الحقيقي عن الرغبات المُعلنة عبر اكتشاف مستمر قائم على الأدلة.

Jobs-to-be-Done (JTBD)الابتكار المُوجَّه بالنتائج (ODI)الاكتشاف المستمرشجرة الفرص والحلولمقابلة التحوّل / القوى الأربعأساسيات مقابلة المستخدمينخرائط الرحلة ومخططات الخدمةأخطاء تصميم الاستبياناتخرائط المخاطر والافتراضاتالتثليث

Explainer

الاكتشاف هو العمل الذي تستحقّ به حقّ البناء. معظم إخفاقات المنتج ليست إخفاقات تنفيذ؛ بل هي إخفاقات طلبٍ مُتنكّرة بزيّ ميزات مشحونة. الاكتشاف القوي يرفض الاختصارات المريحة — استبيانات بلا سلوك، مجموعات بؤرية، عروض جولات للتحقق — ويستبدلها بحلقة محكمة: مقابلة، ملاحظة، تحليل، وتثليث الأدلة النوعية بإشارة كميّة حتى يصبح الفريق أقل خطأً بصدقٍ مما كان عليه الأسبوع الماضي.

1

التفضيل المُعلَن مقابل السلوك المكشوف

المستخدمون متنبّئون غير موثوقين بسلوكهم. سيخبرونك أنهم يريدون ميزة لن يستخدموها أبدًا، وأنهم سيدفعون ثمن شيء لن يدفعوا له، وأنهم يكرهون واجهة ما زالوا يعودون إليها. الاكتشاف هو انضباط الثقة بما يفعله المستخدمون فوق ما يقولونه. المقابلة أداةٌ لإعادة بناء سلوكٍ سابق، لا للتنبؤ بسلوكٍ مستقبلي.

  • السلوك السابق > النية المُعلَنة > التفضيل الافتراضي، بهذا الترتيب.
  • إذا اضطُررت للسؤال عن افتراضي، اربطه بلحظة محدّدة قريبة، لا بمستقبل عام.
  • إن قال مستخدم: «سأدفع لهذا حتمًا»، اسأله: «كم دفعت حتى الآن مقابل الحلّ البديل الذي تستخدمه اليوم؟»
2

Jobs-to-be-Done — ثلاث مدارس

JTBD ليس شيئًا واحدًا؛ هناك ثلاث مدارس متداخلة. خلطها أكثر أخطاء مديري المنتج شيوعًا. اختر المدرسة التي تطابق قرارك والتزم بمفرداتها.

  • Christensen / Switch (Bob Moesta, Chris Spiek): تركّز على لحظة الانتقال من حل قديم إلى آخر جديد. المفردات: المخاوف، العادات، push، pull، القوى الأربع.
  • Outcome-Driven Innovation (Tony Ulwick): مهام وظيفية مفكّكة إلى نواتج مرغوبة قابلة للقياس، تُقيَّم بالأهمية والرضا الحالي. المفردات: opportunity score = الأهمية + max(الأهمية − الرضا، 0).
  • Strategyzer (Alex Osterwalder): الـjobs مدخلًا لتصميم القيمة المقترحة — مهام وظيفية وعاطفية واجتماعية مرتبطة بالآلام والمكاسب.
3

مقابلة Switch والقوى الأربع

تعيد مقابلة Switch بناء اللحظة التي انتقل فيها المستخدم من حل إلى آخر. الإطار: push للوضع الراهن، pull للحلّ الجديد، مخاوف الانتقال، عادات الحاضر. الطلب موجود حين push + pull > المخاوف + العادات. مديرو المنتج الأقوياء يستقصون كل قوة صراحةً.

  • Push: ما الذي انكسر تحديدًا في سير العمل السابق؟ متى؟ مع من؟
  • Pull: ما الذي عبر عتبة «جيد بما يكفي للتجربة» في الخيار الجديد؟
  • المخاوف: ما الذي قلقك عند التبني؟ التكلفة، الخطر، الخطر الاجتماعي، منحنى التعلّم؟
  • العادة: ما الذي أبقاك على الطريقة القديمة طويلًا حتى بعد ظهور push؟
  • إذا فاقت المخاوف أو العادات push + pull، فالطلب نظري لا حقيقي.
4

آليات مقابلة المستخدم

يبالغ معظم مديري المنتج في تقدير جودة مقابلاتهم. أكبر المشاكل: أسئلة موجِّهة، الترويج للحلّ، طلب التصميم من المستخدم، وتلقّي الأسباب المعلَنة بحرفيّتها. المقابلة الجيدة منظَّمة لا مكتوبة — تعيد بناء السلوك بتفصيل حيّ.

  • افتح بلحظة محدّدة قريبة: «اشرح لي خطوة بخطوة آخر مرة حدث فيها هذا.»
  • استقصِ الجدول الزمني دقيقةً بدقيقة؛ لا تقبل عبارات مُلخَّصة.
  • أنصت لتغيرات الطاقة — تنهّدات، تسارعات، توقفات — واتبعها.
  • اسأل عن الحلول البديلة قبل أن تقترح الحلول؛ الحل البديل ثمن الدخول.
  • لا تُنهِ مقابلة دون أن تسأل: «ما الذي لم أسأل عنه وكان ينبغي أن أسأله؟»
  • سجّل (بإذن) ووسم النصوص؛ تضغط الذاكرة كل شيء خلال 48 ساعة.
5

الاكتشاف المستمر عادةً أسبوعية

تستبدل ممارسة الاكتشاف المستمر لـTeresa Torres «مرحلة الاكتشاف» بإيقاع أسبوعي. الهدف: ثلاثيّ المنتج (PM، التصميم، قائد الهندسة) يتحدّث مع مستخدم واحد على الأقل أسبوعيًا، ويحدّث Opportunity Solution Tree مقابل ناتج مرغوب واضح.

  • جنّد لجنة مستمرة؛ لا تبدأ التجنيد من جديد في كل مشروع.
  • اعقد sync أسبوعيًا للثلاثي لتحديث الشجرة، لا لطلب الإذن.
  • اعتبر أي أسبوع بلا مقابلة دَين اكتشاف — سمّه واسدّده.
  • الاكتشاف والتسليم متشابكان؛ ليس أحدهما بوابةً للآخر.
6

Opportunity Solution Tree

تُصوِّر OST سلسلة: الناتج المرغوب → الفرص (مشكلات/احتياجات غير ملبّاة برزت من البحث) → حلول مرشّحة → اختبارات افتراضات. القراءة من الأعلى إلى الأسفل تُظهِر سبب النظر في كل حل. القراءة من الأسفل إلى الأعلى ترقى بكل اختبار إلى فرصة مستخدم حقيقية مرتبطة بناتج الفريق.

  • ناتج واحد في الجذر؛ فرص متعددة؛ حلول متعددة لكل فرصة؛ اختبارات متعددة لكل حل.
  • قاوِم الحلول التي لا ترتبط بفرصة مُسمّاة.
  • استخدم الشجرة للحجاج: «هل هذه الفرصة أكبر من تلك؟»، «أيّ حل يستهدف هذه الفرصة بأفضل شكل؟»
  • حدّث أسبوعيًا بأدلة جديدة؛ شذِّب الفروع التي تفقد دليلها.
7

خرائط المخاطر والافتراضات

يُميِّز Marty Cagan أربعة أنواع مخاطر تواجه أي فكرة منتج: القيمة (هل سيستخدمها المستخدمون؟)، قابلية الاستخدام (هل يستطيعون استخدامها؟)، الإمكان التقني (هل نقدر على بنائها؟)، وقابلية الاستمرار التجارية (هل تنجح للأعمال — قانوني، مبيعات، دعم، مالية؟). الاكتشاف ممارسة تحديد أيّ هذه المخاطر يهيمن على الفكرة، ثم تصميم أرخص اختبار يُلغي ذلك الخطر.

  • خطر القيمة يهيمن في الفئات الجديدة والجمهور الجديد.
  • خطر قابلية الاستخدام يهيمن في تغييرات واجهة جذرية.
  • خطر الإمكان التقني يهيمن في العمل التقني المُستجدّ (ML، الزمن الحقيقي، التوسّع).
  • خطر القابلية التجارية يهيمن في المجالات المُنظّمة أو الحساسة للسعر.
8

خرائط رحلة المستخدم ومخططات الخدمة

تتتبّع خرائط الرحلة شخصية مستخدم واحدة عبر سير عمل حقيقي زمنيًا، مُلتقطةً الأفعال والأفكار والمشاعر ولحظات الاحتكاك. تمدّ مخطّطات الخدمة (Service Blueprints) الرحلةَ لتشمل العمليات الكواليسية — ما يجب أن تفعله الشركة والأنظمة والسياسات لينجح حدث المسرح. تخفق معظم منتجات B2B والمنتجات ذات العمليات الثقيلة في الكواليس، لا على الشاشة.

  • ابنِ الخريطة من جلسة حقيقية مُسجَّلة، لا من تخمين ورشة عمل.
  • وَسِم كل خطوة بـ: فعل، فكرة، شعور، احتكاك، الزمن المُنقضي.
  • في مخططات الخدمة، أضِف الأفعال الكواليسية وأنظمة الدعم وSLAs.
  • أبرِز «لحظات الحقيقة» التي تنجح فيها التجربة أو تنكسر.
9

تصميم الاستبيانات ولماذا تكذب أكثرها

تشيع الاستبيانات لأنها تتوسّع؛ ويُساء استخدامها لأنها سهلة. تعاني معظم استبيانات المنتج من تحيّز الاختيار (يجيب المتحمّسون فقط)، وتحيّز الرغبة الاجتماعية (يقول المُجيبون ما يظنونه يُسرّك)، وتأثيرات الترتيب (يتسرّب السؤال أعلاه إلى الإجابة أسفله). الاستبيانات نافعة لقياس فرضية طوّرتها نوعيًا — وليست أبدًا تقريبًا للاكتشاف من الصفر.

  • استخدم الاستبيانات للتحجيم لا للاكتشاف.
  • تجنّب «هل ستستخدم» و«كم ستدفع» — كلاهما غير موثوق.
  • اربط الأسئلة بسلوك الأسبوع الماضي، لا بالتفضيلات المجرّدة.
  • اختبر تجريبيًا مع 10 مستخدمين قبل الإرسال؛ تُكتشف 80% من أخطاء التصميم في أول 5 ردود.
  • ضمّن دائمًا سؤالًا مفتوحًا؛ النصوص الحرفية في الغالب أنفع من المقاييس.
10

التثليث: نوعي + كمي + سوق

الرؤى أحادية المصدر خطرة. ثلِّث بالجمع بين المقابلات النوعية (لماذا)، والتحليل الكمي (إلى أيّ مدى)، وأدلة السوق (هل العالم يدعم هذا الاتجاه؟). حين تتفق الثلاثة، يكون الاقتناع عاليًا. حين تختلف، اتبع الاختلاف — هناك يسكن أنفع تعلّم.

  • النوعي يخبرك بما يحدث ولماذا.
  • الكمي يخبرك بحجمه وتواتره.
  • أدلة السوق (المنافسون، الصناعات المجاورة، المؤشرات الأولية) تخبرك إن كانت الريح في صالحك أو ضدّك.
  • وثّق كل مصدر مع مستوى ثقته؛ لا تأخذ المتوسط، بل رجِّحْ.
11

ناتج الاكتشاف: مكتبة الرؤى

الاكتشاف بلا أثر يتحلّل في رأس مدير منتج واحد. يحتاج الفريق مكتبة رؤى مشتركة — مقاطع مقابلات موسومة، فرص، أدلة — تنجو من تبدّل مديري المنتج وتتراكم عبر المشاريع. حتى مستند مشترك بسيط بوسوم متّسقة يهزم ذاكرة فردية لامعة معزولة.

  • وسم كل اقتباس بـ: شخصية، job، فرصة، شدّة، ثقة.
  • اجعل المكتبة قابلة للبحث؛ إن لم تجد اقتباسًا موسومًا في 30 ثانية، فالنظام فاشل.
  • راجِع أهم الفرص كل ربع كمرشّحات لجذر OST في الربع التالي.

Framework atlas

Reference cards for each method in this mission

Expand a card for when to deploy it, misuse patterns, sequencing guidance, and (where relevant) shorthand formulas.

Discovery interview · Bob Moesta & Chris Spiek (Re-Wired Group / The Rewired Group)Switch / Forces of Progress(Switch)

A structured interview format that reconstructs a user's switch from an old solution to a new one, mapped to the four forces: push, pull, anxiety, habit.

When to use

  • Understanding why users adopted (or didn't adopt) a category.
  • Pricing and packaging research.
  • Churn and switching investigations.

When not to

  • Pure usability testing of a specific UI.
  • Discovery for an entirely new behavior with no prior solution to switch from.

How to apply

  1. Recruit users who switched within the last 90 days.
  2. Anchor the conversation to the day of the switch.
  3. Probe push, pull, anxiety, habit explicitly with timeline questions.
  4. Identify the moment of first thought, struggle, deciding event, and consumption event.
  5. Synthesize forces and map to demand strength.
Pitfalls / anti-patterns
  • Asking about preference instead of behavior.
  • Letting users summarize ('I just got tired of it') instead of reconstructing the timeline.
Discovery synthesis · Teresa TorresOpportunity Solution Tree(OST)

Visual structure connecting a desired outcome to opportunities (problems), candidate solutions, and the experiments that test them.

When to use

  • Continuous discovery teams aligning on what to learn next.
  • Quarterly planning where the outcome is fixed but the path is not.

When not to

  • When the team has not yet defined a clear outcome — fix that first.

How to apply

  1. State the outcome at the root.
  2. Surface opportunities from research; cluster duplicates.
  3. Map candidate solutions under each opportunity.
  4. Define the riskiest assumption per solution and an experiment to test it.
  5. Update weekly with new evidence; prune unsupported branches.
Pitfalls / anti-patterns
  • Stuffing every feature request as a 'solution' regardless of opportunity fit.
  • Letting the tree become a static slide deck instead of a living doc.
Discovery quantification · Tony UlwickOutcome-Driven Innovation(ODI)

Decomposes a job into outcome statements (e.g. 'minimize the time it takes to identify duplicate contacts'), then surveys users on importance and current satisfaction. Opportunity score = importance + max(0, importance - satisfaction).

Opportunity = Importance + max(0, Importance − Satisfaction)

When to use

  • Mature markets where the job is well understood and you need to find under-served outcomes.
  • Roadmap arbitration when many possible directions look equally appealing.

When not to

  • Brand-new categories where the user can't articulate the job yet.

How to apply

  1. Identify the core functional job through interviews.
  2. Decompose into outcome statements (verb + object + clarifier, e.g. 'minimize time to ___').
  3. Survey 100+ users for importance (1-10) and satisfaction (1-10).
  4. Compute the opportunity score per outcome.
  5. Prioritize outcomes with score > 12 as under-served opportunities.
Pitfalls / anti-patterns
  • Writing outcome statements that contain solutions ('add an auto-detect button').
  • Surveying users who don't actually do the job.
Discovery prioritization · Marty Cagan / SVPGRisk-Assumption Mapping

Categorizes the risks of a product idea into Value, Usability, Feasibility, and Viability and tests the largest risks first with the smallest possible experiment.

When to use

  • Before committing eng capacity to a non-trivial bet.
  • When the team feels unable to articulate why an idea might fail.

When not to

  • Tiny incremental changes where a single A/B test is enough.

How to apply

  1. List all assumptions the idea depends on.
  2. Tag each as Value / Usability / Feasibility / Viability risk.
  3. Score by impact-if-wrong and confidence-now.
  4. Design the cheapest experiment to retire the top 1-2 risks.
  5. Re-rank weekly as evidence accumulates.
Root cause analysis · Sakichi Toyoda / Toyota Production SystemFive Whys

Iteratively ask 'why' to walk from a symptom to a root cause. Useful in user interviews, post-mortems, and bug triage.

When to use

  • Surface-level user complaints whose real cause is unclear.
  • Post-incident reviews.

When not to

  • Multi-causal complex systems where a single 'why' chain oversimplifies; use a fishbone diagram instead.

How to apply

  1. Start with the observed symptom or complaint.
  2. Ask 'why' and capture the answer; don't accept generalities.
  3. Repeat 4–5 times until the answer is structural rather than personal.

Product Psychology

Cognitive biases that distort product decisions

Confirmation Bias in Interviews

Interviewers selectively probe and remember evidence that confirms the going hypothesis.

Product Risk

The team walks out of every research round 'validated', regardless of what users actually said.

Research Countermove

Pre-register the hypothesis and the falsification criterion. Have a second interviewer or transcriber tag quotes blind to the hypothesis.

Researcher / Demand Effect

Users mirror what they believe the interviewer wants to hear, especially when interviewer comes from the company that might pay them or refer them.

Product Risk

Hypotheticals get inflated agreement; pricing surveys inflate willingness to pay; feature interest is overstated.

Research Countermove

Use neutral recruiters who don't disclose the hypothesis. Pay users a fixed incentive regardless of stated enthusiasm. Anchor questions in past behavior, not future preference.

Recency Bias in Synthesis

The most recent interview disproportionately influences the synthesis even when earlier interviews carried the same signal.

Product Risk

Roadmaps swing toward whichever user the team last heard from, especially executives or vocal users.

Research Countermove

Tag every quote at intake, not at synthesis. Synthesis should weight every tagged quote equally, not by memorability.

Articulation Bias

Users who can articulate clearly are over-represented; quieter users with the same problem are missed.

Product Risk

Power-user features ship while novice-user pain remains invisible.

Research Countermove

Recruit deliberately across articulation styles; supplement interviews with observation, screen-share recordings, and unmoderated tests.

Hawthorne Effect

Users behave differently because they know they're being observed.

Product Risk

Lab usability tests overstate competence; users perform for the researcher.

Research Countermove

Use unmoderated remote tests, in-product analytics, and longitudinal studies whenever possible. Treat moderated lab tests as one of multiple data sources.

Cargo-Cult Discovery

Adopting discovery rituals (interviews, OSTs, story maps) without the underlying behavioral change in the team's decision-making.

Product Risk

Discovery becomes documentation theater; the same backlog ships regardless of what was learned.

Research Countermove

Tie every discovery output to a decision: 'This week's research changes our roadmap in this specific way, or it changes our confidence in this specific item.'

Organizational anti-patterns

When ceremonies look like rigor but aren't

Validating, Not Discovering

Research is scheduled after the spec is written; goal is to confirm rather than challenge.

PM has already committed to the solution and uses 'discovery' as a checkpoint to feel safe.

Fix

Run discovery before scoping. If you must run it after, give the team explicit permission to kill the idea based on findings.

The Persona Slide That Lives Forever

A glossy persona deck made 18 months ago is still cited in decisions; nobody can name a real recent user.

Personas are easier to display than to maintain; nobody owns their freshness.

Fix

Replace static personas with a continuous panel. Cite real recent quotes and behaviors in decisions, not 'Marketer Mary'.

Survey-First Discovery

The team's first move on every new question is to send a survey.

Surveys feel scientific and scale fast; interviews feel slow and subjective.

Fix

Lead with 5-7 interviews; only survey to size what interviews already revealed qualitatively.

The Loudest User Drives the Roadmap

Roadmap shifts in response to the latest angry support ticket or executive escalation.

Without an aggregated insight library, vivid recent feedback wins by default.

Fix

Aggregate weekly: count themes across interviews, support tickets, NPS verbatims, and churn reasons. Make the count visible in roadmap meetings.

Insights as Slide Decks

Research findings live as polished one-time decks; they don't accumulate into a searchable corpus.

Researchers and PMs are rewarded for visible deliverables, not infrastructure.

Fix

Standardize tagging. Build a searchable repository — even a structured Notion/Coda/Airtable database is enough.

Worked examples

Walkthroughs translated from real trade-off rooms

Catching a phantom feature with a switch interview

A team is convinced users want richer reporting. Surveys show 78% interest. Internal advocates are pushing for a Q1 build.

  1. Run 8 switch interviews with users who recently adopted a competitor that already has rich reporting.
  2. Map the four forces. Push and pull are real; anxieties (cost, change) are large; habit (existing internal dashboards) is the largest force.
  3. Find that only 2/8 actually use the rich reporting after switching; 6/8 still rely on legacy dashboards exported to spreadsheets.
  4. Reframe the opportunity: not 'rich reporting in product' but 'reduce the spreadsheet round-trip'. Ship a CSV export with templated views in 3 weeks instead of a 4-month reporting build.

TakeawayStated demand was real but did not translate into post-switch usage. The actual job was about leaving the product, not staying in it.

Using ODI to find the under-served outcome

A meeting-notes product wants to know which AI feature to build first.

  1. Interview 12 users to identify the functional job: 'capture decisions and action items from a meeting'.
  2. Decompose into 14 outcome statements, e.g. 'minimize time to identify action items', 'minimize chance of missing a decision'.
  3. Survey 200 users for importance and satisfaction.
  4. Highest opportunity scores: 'minimize time to share notes with absentees' (15.2) and 'minimize chance of missing a decision' (14.8).
  5. Lower than expected: 'minimize time to identify action items' (10.1) — already considered well-served by the existing product.

TakeawayODI redirected the team from auto-summarization (already satisfying) toward decision tracking and absentee summaries (under-served).

Killing a feature using risk-assumption mapping

Team wants to add an in-app marketplace for third-party integrations.

  1. List assumptions: users want to discover integrations in-product; partners will list; we can review submissions; legal can manage liability; revenue model works.
  2. Tag risks: Value (partial — direct evidence weak), Viability (dominant — legal & revenue model unsolved), Feasibility (medium).
  3. Test viability first with 5 partner conversations and a legal review — both come back negative under current contracts.
  4. Kill the marketplace; instead, ship a curated integrations directory and a partner program with handpicked launch partners.

TakeawayThe dominant risk was viability, not value. Testing the right risk first prevented a 6-month build that would have shipped into a legal wall.

Resources / Case Studies

Curated reading for this mission

The canonical operating manual for weekly discovery practices, the Opportunity Solution Tree, and assumption testing.

The single most actionable book on modern discovery practice; every team benefits from running its first 90 days.

Framework

The original blog series introducing the OST as a connective tissue between outcomes, opportunities, solutions, and tests.

The clearest free reference for the OST diagram and its discipline.

Book

Moesta's articulation of JTBD applied to selling. Covers the four forces, switching moments, and the timeline interview.

Translates JTBD from theory to operational interview craft for PMs and sales partners.

Jobs to Be Done — Theory of JTBD

Tony Ulwick (Strategyn)

Essay

Ulwick's school of JTBD with outcome-driven innovation, opportunity scoring, and quantitative discovery.

The right tool when the team needs to size and prioritize unmet needs at scale, not just understand them qualitatively.

Book

Cagan's Value/Usability/Feasibility/Viability framework and prototyping techniques for retiring each risk type.

Establishes the risk-typing language that the rest of the industry uses.

Book

Portigal's craft-level guide to interviewing users without leading them. Covers question design, listening, and synthesis.

The best stand-alone book on interview mechanics, especially for PMs without UX research training.

The Mom Test

Rob Fitzpatrick

Book

How to run customer conversations that surface real evidence even when users (and your mom) want to be encouraging.

A 90-minute read that fixes the most common interview mistake — asking questions that beg for compliments.

Tool / Vendor

Templates for OSTs, interview snapshots, and weekly trio cadences.

Saves teams the design-thinking-template hunt; production-ready artifacts to drop into Notion or Miro.

JTBD case study showing how customers hire and fire products through unexpected substitutions.

Strong narrative companion to the Switch interview methodology.

Newsletter / Feed

Practitioner case studies on user research from PMs at Airbnb, Stripe, Notion, and more.

Recurring real-world examples from current product teams; a complement to the canonical books.

The Right It

Alberto Savoia

Book

Pretotyping and the search for 'the right it' before 'building it right'. Practical low-cost demand experiments.

Bridges discovery and early experimentation, with concrete templates for fake-door tests, smoke tests, and the like.

How to operationalize ongoing user research at scale: panels, ops, tooling, and synthesis.

Covers the operational layer that most discovery books skip.