Files
leopost/.planning/research/PITFALLS.md
Michele dc3ea1cf58 docs: complete domain research
Research dimensions:
- STACK.md: Technology stack recommendations (Next.js 15, Supabase, Vercel AI SDK, BullMQ)
- FEATURES.md: Feature landscape analysis (table stakes vs differentiators)
- ARCHITECTURE.md: System architecture design (headless, multi-tenant, job queue)
- PITFALLS.md: Common mistakes to avoid (rate limits, AI slop, cost control)
- SUMMARY.md: Synthesized findings with roadmap implications

Key findings:
- Stack: Next.js 15 + Supabase Cloud + Vercel AI SDK (multi-provider)
- Architecture: Modular monolith → microservices, headless pattern
- Critical pitfall: API rate limits (Meta reduced by 96%), AI cost explosion

Phase recommendations:
1. Core Scheduling Foundation (6-8 weeks)
2. Reliability & Differentiation (4-6 weeks)
3. Advanced Innovation (8-12 weeks)
4. Scale & Polish (ongoing)

Co-Authored-By: Claude Sonnet 4.5 <noreply@anthropic.com>
2026-01-31 02:08:10 +01:00

26 KiB
Raw Blame History

Domain Pitfalls

Domain: AI-powered social media management SaaS per freelance italiani Researched: 2026-01-31 Confidence: MEDIUM-HIGH (WebSearch verified with multiple credible sources)

Critical Pitfalls

Errori che causano riscritture, perdita di utenti o fallimento del prodotto.


Pitfall 1: API Rate Limits e Gestione Token Social Media

Cosa va storto: Le API di Meta (Facebook/Instagram) hanno limiti drasticamente ridotti nel 2024: da 5,000 a 200 DM/ora (riduzione del 96%). Ogni chiamata API fallita, invalida o riuscita consuma ugualmente il rate limit. I progetti che non gestiscono correttamente questi limiti si bloccano o vengono bannati.

Perché succede:

  • Sviluppatori non implementano exponential backoff dopo errore 429
  • Non differenziano tra errori (retry immediato invece che attendere)
  • Token Instagram scadono (short-lived dopo 1h, long-lived dopo 60 giorni inattivi)
  • Tool terzi (analytics, monitoring) consumano quota API senza che il team se ne accorga
  • Errori di cache: ogni chiamata duplicata spreca quota

Conseguenze:

  • Scheduling fallisce silenziosamente
  • Utenti vedono "post non pubblicato" senza spiegazioni
  • Ban temporaneo dell'account business
  • Perdita di fiducia immediata

Prevenzione:

// Implementare sin dal Milestone 1
1. Exponential backoff con jitter (1s  2s  4s  8s + random 0-1000ms)
2. Token refresh automatico ogni 50-55 giorni
3. Caching aggressivo (riduce 70% chiamate API)
4. Field selection (riduce 20% volume)
5. Batching requests (riduce 30% volume)
6. Rate limit monitoring dashboard visibile in real-time

Rilevamento:

  • Monitor X-Business-Use-Case-Usage header in ogni response
  • Log tutti gli errori 429 e 190 (token scaduto)
  • Alert quando uso > 80% del rate limit orario
  • Dashboard che mostra quota rimanente per account

Fase da affrontare:

  • Fase 1 (Core scheduling): Implementare exponential backoff + token refresh
  • Fase 2 (Multi-account): Dashboard rate limit per account
  • Ogni fase: Test con rate limit simulati (mock API)

Fonti:


Pitfall 2: "AI Slop" - Contenuti Generici che Uccidono il Brand

Cosa va storto: L'AI genera contenuti tecnicamente corretti ma generici, impersonali e identici a quelli di migliaia di altri utenti. Il 71% delle immagini social è ora AI-generated, ma solo il 26% degli utenti preferisce contenuti AI vs umani (era 60% nel 2023). Le persone riconoscono e ignorano il "template AI".

Perché succede:

  • Prompt generici ("scrivi post LinkedIn su X") → output generico
  • Nessun "brand voice training" → AI usa tono corporate standard
  • Zero contestualizzazione → AI non sa nulla del business dell'utente
  • Nessuna review umana → publish automatico di mediocrità
  • Focus su "velocità" invece che "qualità + velocità"

Conseguenze:

  • Engagement crollato (audience riconosce AI slop e scorre oltre)
  • Perdita di autenticità del brand
  • Recensioni negative "sembra tutto uguale"
  • Churn utenti dopo 1-2 mesi ("perdo tempo a rivedere tutto")
  • Trust degli utenti in calo: 78% trova difficile distinguere AI da umano, ma il 41% non si fida

Prevenzione:

1. Brand Voice Onboarding obbligatorio (Fase 1)
   - Esempi di post precedenti dell'utente
   - Tone (formale/casual, serio/ironico, tecnico/semplice)
   - Parole chiave del settore, gergo
   - "Things I never say" (anti-patterns)

2. Multi-stage quality control (Fase 2)
   - Pre-screening automatico (keywords ban, lunghezza)
   - Contextual analysis (allineamento brand voice)
   - Human-in-the-loop sempre (edit prima di schedule)
   - Performance monitoring post-publish

3. AI Training incrementale (Fase 3+)
   - Learning da post approvati/editati dall'utente
   - Feedback loop: utente vota 👍/👎 ogni draft
   - Fine-tuning model o RAG con "esempi approvati"

4. "Anti-AI Aesthetic" features
   - Opzione "imperfetto ma autentico"
   - Variazioni multiple invece di singolo output
   - Suggerimenti per personalizzazione manuale

Rilevamento:

  • A/B test engagement: AI vs AI-edited vs 100% human
  • NPS survey: "Il contenuto rispecchia la tua voce?"
  • Monitoring tempo di editing: se utente riscrive >60% → AI fallisce
  • Analisi similarity: se draft troppo simili tra utenti → problema sistemico

Fase da affrontare:

  • Fase 1: Brand voice onboarding (form + esempi)
  • Fase 2: Human review obbligatorio, feedback loop
  • Fase 3: Fine-tuning basato su approvazioni utente
  • Ogni milestone: A/B test qualità vs velocità

Fonti:


Pitfall 3: Costi AI Fuori Controllo (Multi-Provider Hell)

Cosa va storto: I costi AI esplodono senza visibilità. Progetti partono con "GPT-4 per tutto", poi scoprono che:

  • Generare 1 post con immagine AI costa $0.15-0.50 (testo + DALL-E/Midjourney)
  • 100 utenti freemium × 10 draft/mese × $0.30 = $300/mese LOSS
  • Nessun monitoring → scopri il buco a fine mese
  • Vendor lock-in → impossibile cambiare provider senza riscrivere codice
  • 84% delle enterprise vedono erosione margini per costi AI, 25% sforano forecast

Perché succede:

  • Usano modelli costosi (GPT-4) per task semplici (captions, hashtag)
  • Nessuna orchestrazione multi-provider (se OpenAI sale prezzi, sei bloccato)
  • Nessun caching di risultati (rigenera stesso contenuto 10 volte)
  • Freemium troppo generoso (utenti gratis consumano risorse senza limiti)
  • Zero monitoring per utente/feature

Conseguenze:

  • Burn rate insostenibile
  • Freemium model fallisce (CAC > LTV)
  • Impossibile scalare senza aumentare prezzi
  • Margini negativi su ogni utente

Prevenzione:

1. AI Gateway con routing intelligente (Fase 1)
   - Task semplici → GPT-4 Mini / Claude Haiku (5-10x cheaper)
   - Generazione creativa → GPT-4 / Claude Sonnet
   - Immagini → comparazione prezzi DALL-E vs Midjourney vs Stable Diffusion
   - Failover automatico se provider down

2. Cost Attribution granulare (Fase 2)
   - Tracking costo per utente, per feature, per request
   - Dashboard real-time: "Oggi spesi $X, budget $Y"
   - Alert se utente singolo supera soglia (abuse detection)

3. Caching aggressivo (Fase 1)
   - Hash prompt + parametri → se già generato, riusa
   - Cache immagini: stessi parametri → stessa immagine
   - TTL intelligente (cache "best performing posts" per sempre)

4. Freemium limits tecnici (Fase 1)
   - Max 5 AI drafts/mese (poi upgrade)
   - Immagini AI solo su piano paid
   - Rate limiting per utente

5. Monitoring e FinOps (Fase 2+)
   - Budget alerts settimanali
   - Cost breakdown per provider
   - Optimization suggestions automatiche

Rilevamento:

  • Dashboard costi giornaliera
  • Alert se costo/utente > $X
  • Report mensile: costo per feature
  • Benchmark: costo medio competitor (ricerca continua)

Fase da affrontare:

  • Fase 1: AI Gateway, caching, freemium limits
  • Fase 2: Cost attribution, monitoring dashboard
  • Fase 3: Dynamic routing (auto-switch provider più economico)

Fonti:


Pitfall 4: Scheduling Reliability Failures (Silent Post Loss)

Cosa va storto: Post programmati non vengono pubblicati. L'utente scopre dopo giorni che la campagna è fallita. Cause comuni: token scaduti, API changes, server down, timezone bugs, draft corrotti. "Disappearing drafts, truncated captions, silent upload failures trigger real-world chaos."

Perché succede:

  • Nessun sistema di retry automatico
  • Nessuna notifica di failure (utente non sa che è fallito)
  • Timezone handling sbagliato (pubblica alle 3am invece che 3pm)
  • Draft salvati localmente ma mai sincronizzati con backend
  • API Meta cambia endpoint → codice vecchio continua a chiamare deprecated API

Conseguenze:

  • Timing critico perso (Black Friday post mai pubblicato)
  • Perdita fiducia cliente ("unbillable time spent fixing")
  • Churn immediato se succede 2+ volte
  • Recensioni negative "unreliable, non ci puoi contare"

Prevenzione:

1. Scheduling Architecture resiliente (Fase 1)
   - Distributed job queue (Bull/BullMQ su Redis)
   - Retry automatico con exponential backoff (3 tentativi)
   - Dead Letter Queue per failures definitivi
   - Idempotency: stesso post non pubblicato 2 volte se retry

2. Failure Notifications immediate (Fase 1)
   - Email + Push notification se post fallisce
   - Dashboard "scheduled posts status" real-time
   - Alert se >10% post falliscono in 1h (incident detection)

3. Timezone Validation rigorosa (Fase 1)
   - Salva sempre UTC + user timezone separati
   - Preview "will publish at [local time]" prima di confermare
   - Test automatici per ogni timezone italiano

4. Health Checks pre-publish (Fase 2)
   - 5 minuti prima: verifica token valido
   - 1 minuto prima: test API connection
   - Se fail → notifica utente + auto-reschedule +15min

5. API Version Monitoring (Continuo)
   - Subscribe a Meta developer changelog
   - Automated tests che falliscono se API changes
   - Graceful degradation (se nuova API fail, usa vecchia)

Rilevamento:

  • Monitor tasso successo publish (target: >99.5%)
  • Alert se singolo utente ha 2+ failures in 1 settimana
  • Post-mortem automatico per ogni failure (log + context)

Fase da affrontare:

  • Fase 1 (Core): Job queue, retry, notifications, timezone validation
  • Fase 2: Health checks pre-publish
  • Ogni fase: Chaos engineering (kill server durante scheduled publish, verifica recovery)

Fonti:


Pitfall 5: Onboarding Overwhelm (Firehose Problem)

Cosa va storto: Nuovi utenti vengono bombardati con "tutto in una volta": tour di 20 features, form infiniti, dashboard complessa. Il 63% degli utenti abbandona durante onboarding complesso. "Throwing every single feature at a new user at once causes instant confusion."

Perché succede:

  • Developer mindset: "mostriamo tutto così sanno cosa può fare"
  • Nessuna progressive disclosure (tutto visibile subito)
  • One-size-fits-all (stesso onboarding per principiante e power user)
  • Nessun time-to-value chiaro ("cosa ottengo nei primi 5 minuti?")
  • Form lunghi prima del primo valore

Conseguenze:

  • Activation rate <30% (benchmark buono: >60%)
  • Utenti si registrano ma non completano setup
  • "Trough of disillusionment" → churn prima del primo post pubblicato
  • Support sommerso da "non capisco come funziona"

Prevenzione:

1. Progressive Disclosure (Fase 1)
   - Step 1: Genera 1 post AI in <2 minuti (quick win)
   - Step 2: Connetti 1 account social (solo dopo primo successo)
   - Step 3: Schedule post (introducono scheduling dopo capire generazione)
   - Features avanzate: nascoste, sbloccate quando utente ready

2. Role-Aware Onboarding (Fase 2)
   - Quiz iniziale: "Sei freelance? Agenzia? Brand?"
   - Path differenziati: freelance vede solo essenziale
   - Enterprise vede team collaboration features

3. Time-to-Value <5 minuti (Fase 1)
   - Template pre-compilati (click → post ready)
   - "Skip" opzionale per ogni step non critico
   - Salva draft automaticamente (utente può tornare dopo)

4. Contextual Onboarding (Fase 2+)
   - Tooltips quando utente hovera feature (non tour forzato)
   - "You haven't tried X yet" gentle nudge (non popup invasivo)
   - Video micro-clips (10-15s) triggered by behavior

5. Checklist Opzionale (Fase 1)
   - "Setup your profile" visibile ma non bloccante
   - Progress bar motiva completamento
   - Rewards per milestone (unlock feature, badge)

Rilevamento:

  • Funnel analytics: % che completa ogni step
  • Time-to-first-post metric (target: <10 minuti)
  • Heatmap: dove utenti bloccano/abbandonano
  • Survey exit: "Why are you leaving?"

Fase da affrontare:

  • Fase 1: Progressive disclosure, time-to-value <5min
  • Fase 2: Role-aware paths, contextual guidance
  • Ogni milestone: Onboarding usability test con 5+ freelance reali

Fonti:


Moderate Pitfalls

Errori che causano ritardi, debito tecnico o esperienza utente degradata.


Pitfall 6: Freemium Tier Miscalibration

Cosa va storto: Il tier gratuito è troppo generoso (utenti non upgradano mai) o troppo restrittivo (utenti abbandonano prima di vedere valore). Conversion rate freemium media: 2-5%. Se <2% → tier troppo generoso. Se utenti churneranno prima di 30 giorni → troppo restrittivo.

Perché succede:

  • Paura di perdere utenti → danno troppo gratis
  • Opposto: vogliono forzare upgrade → danno troppo poco
  • Non testano conversion rate prima di scala
  • Ignorano cost per free user (support, infra, AI calls)

Prevenzione:

  • A/B test tier generosità (Fase 2)
  • Limit strategici: 5 AI drafts/mese (tease value), poi upgrade
  • No immagini AI in free (costo alto)
  • Monitoring: se utente attivo >6 mesi senza upgrade → tier troppo generoso
  • Support prioritario solo su paid (riduce costi support free users)

Fase da affrontare: Fase 2 (dopo validazione MVP), continua ottimizzazione in Fase 3+

Fonti:


Pitfall 7: WhatsApp/Telegram Bot Integration Trap

Cosa va storto: WhatsApp richiede Business Account verificato, approvazione template messaggi, 24h response window. Meta ha bannato AI chatbot generici dal 15 gennaio 2026. Telegram è più permissivo ma supporta 1 solo webhook per bot (conflict se usi multiple piattaforme).

Perché succede:

  • Assumono WhatsApp = Telegram (API molto diverse)
  • Non leggono policy Meta → bot bannato
  • Non gestiscono 24h window → messaggi bloccati
  • Webhook conflicts su Telegram

Prevenzione:

  • Usare WhatsApp Business API ufficiale (non workarounds)
  • Template pre-approvati per notifiche programmate
  • Telegram come primary bot (più flessibile), WhatsApp secondary
  • Documentazione chiara: limitazioni di ogni piattaforma
  • Test approvazione Meta in Fase 1 (può richiedere settimane)

Fase da affrontare: Fase 2-3 (non core MVP, feature differenziante)

Fonti:


Pitfall 8: Chat-First UX Misconceptions

Cosa va storto: Chat UX sembra "naturale" ma crea problemi: nessuna discoverability (utente non sa cosa chiedere), risposte istantanee sembrano "innaturali", nessun flusso di lavoro (constant switch tra implement e evaluate mode), 67% AI chatbots falliscono per UX.

Perché succede:

  • Assumono "chat = semplice"
  • Nessuna guida: blank input box senza suggerimenti
  • Bot senza personalità (troppo robotico)
  • Nessuna escalation a UI tradizionale quando chat fallisce

Prevenzione:

  • Hybrid approach: chat + GUI (Fase 1)
    • "Genera post su [topic]" → chat input
    • Preview post → GUI editor tradizionale
    • Schedule → calendar visual
  • Suggerimenti prompt in chat ("Try: 'genera post LinkedIn su...'")
  • Typing indicator + delay realistico (500-1000ms, non instant)
  • Fallback to form: se utente confuso dopo 3 tentativi → "Want to use form instead?"
  • Personality: friendly tone, emoji moderati, italiano colloquiale

Fase da affrontare: Fase 1 (design core UX), iterate in ogni fase

Fonti:


Pitfall 9: AI "Learning" User Preferences (Bias Amplification)

Cosa va storto: AI che "impara" dalle preferenze può amplificare bias nel tempo. Se utente approva solo certi tipi di post, AI converge su quelli e smette di suggerire varietà. Bias possono manifestarsi in: query creation, retrieval, re-ranking. Il sistema diventa "echo chamber".

Perché succede:

  • Feedback loop senza diversity safeguards
  • Ranking basato solo su "cosa utente ha cliccato prima"
  • Nessun exploration (solo exploitation)
  • Metadata inconsistente → raccomandazioni rumorose

Prevenzione:

  • Exploration vs Exploitation balance (Fase 3)
    • 80% raccomandazioni basate su preferenze
    • 20% varianti "esplorative" (toni diversi, format diversi)
  • Diversity metrics: penalizza output troppo simili tra loro
  • Esplicita user control: "Show me something different" button
  • A/B test: learning vs random baseline (verifica se learning migliora davvero)

Fase da affrontare: Fase 3+ (feature avanzata, non MVP)

Fonti:


Minor Pitfalls

Errori che causano fastidi ma sono facilmente risolvibili.


Pitfall 10: Localizzazione Italiana Superficiale

Cosa va storto: Traduzione automatica di UI inglese → italiano goffo. Prompt AI in inglese tradotti letteralmente. Ignorano cultura italiana social media (LinkedIn molto formale, Instagram casual).

Prevenzione:

  • Copywriter italiano nativo per UI (non Google Translate)
  • Prompt templates italiano nativo
  • Esempi italiani: Salvini vs Chiara Ferragni tone molto diversi
  • Date format DD/MM/YYYY (non MM/DD)
  • Euro €, non $ (sembra ovvio ma molti sbagliano)

Fase da affrontare: Fase 1 (dall'inizio, non retrofittare)

Fonti:


Pitfall 11: Image Generation Quality vs Cost Tradeoff

Cosa va storto: DALL-E 3 costa $20/mese (ChatGPT Plus) con 50 img/3h window. Midjourney $10/mese unlimited. Utenti si aspettano qualità Midjourney a costo DALL-E free tier.

Prevenzione:

  • Tier chiaro: Free = no images, Basic = DALL-E, Pro = Midjourney
  • Preview generazione: "This will use 1 of your 10 monthly images"
  • Caching immagini: riusa se prompt simile
  • Template library: immagini pre-generate gratis, AI custom a pagamento

Fase da affrontare: Fase 2 (immagini non core MVP)

Fonti:


Pitfall 12: Vanity Metrics Trap

Cosa va storto: Team festeggia "100K post generati!" ma conversion rate è 1% e churn 60%. Si concentrano su follower, likes, impressions invece di revenue, retention, engagement rate.

Prevenzione:

  • Dashboard metriche business: MRR, churn, CAC, LTV
  • Ignore vanity: follower count irrilevante se non convertono
  • North Star Metric: "posts successfully published and engaged" (non "draft created")

Fase da affrontare: Fase 2+ (dopo product-market fit)

Fonti:


Phase-Specific Warnings

Pitfall probabili per fase del progetto.

Fase Pitfall Probabile Mitigazione
Fase 1: MVP Core API rate limits non gestiti Implement exponential backoff + token refresh dal giorno 1
Fase 1: MVP Core Onboarding overwhelming Time-to-value <5min, progressive disclosure
Fase 1: MVP Core AI slop generico Brand voice onboarding obbligatorio
Fase 1: MVP Core Costi AI esplosivi AI gateway + caching + freemium limits
Fase 2: Multi-Account Scheduling failures silenziosi Job queue + retry + notifications
Fase 2: Freemium Launch Tier miscalibration A/B test generosità, monitor conversion 2-5%
Fase 3: Advanced AI Chat UX confusion Hybrid chat+GUI, suggerimenti prompt
Fase 3: Personalization Bias amplification Exploration 20%, diversity metrics
Fase 4: Bot Integration WhatsApp policy violations Test approvazione Meta early, Telegram primary
Ogni Fase Vanity metrics distraction Dashboard business metrics weekly review

Red Flags da Monitorare

Segnali di warning precoce che indicano un pitfall in corso:

Technical

  • ⚠️ API error rate >1% → Rate limit o token issues incoming
  • ⚠️ AI cost/user >$0.50/mese in freemium → Unsustainable
  • ⚠️ Post publish success rate <99% → Scheduling reliability problem
  • ⚠️ Cache hit rate <50% → Sprechi API calls

User Behavior

  • ⚠️ Activation rate <40% → Onboarding troppo complesso
  • ⚠️ Utenti editano >70% draft AI → AI quality insufficiente
  • ⚠️ Session time <3min → Non trovano valore o UI confusa
  • ⚠️ Freemium utenti attivi >6 mesi senza upgrade → Tier troppo generoso

Business

  • ⚠️ Churn >10%/mese → Prodotto non sticky o value prop debole
  • ⚠️ Support tickets >20%/utenti attivi → UX o reliability issues
  • ⚠️ Conversion freemium <2% → Tier miscalibration
  • ⚠️ CAC > 6 mesi LTV → Unit economics broken

Fonti di Ricerca

Questa ricerca si basa su analisi di:

  • Social Media Management SaaS: Trend 2026, errori comuni, best practices
  • AI Content Generation: Qualità, autenticità, brand voice consistency
  • Social API Integration: Meta/Instagram rate limits, token management
  • Multi-AI Provider Management: Costi, orchestrazione, vendor lock-in
  • Freemium SaaS Models: Conversion rates, pricing calibration
  • Bot Integration: WhatsApp/Telegram differenze, policy compliance
  • SaaS Onboarding: Progressive disclosure, time-to-value, activation
  • Italian Market: Barriere adozione SaaS, localizzazione, digital skills gap

Confidence Level: MEDIUM-HIGH

  • Tutti i dati sono verificati con fonti multiple recenti (2026)
  • Statistiche specifiche citate dove disponibili
  • Alcune metriche sono benchmark generali SaaS (non micro-SaaS specifici)
  • Recommendations basate su pattern industry consolidati

Limitazioni:

  • Nessun dato specifico su "AI social media management per freelance italiani" (nicchia troppo specifica)
  • Benchmark generalizzati da SaaS B2B/B2C, non verticale specifico
  • Alcuni costi AI potrebbero variare rapidamente (verificare prezzi correnti a ogni fase)

Sources Bibliography:

  1. Instagram Graph API Developer Guide 2025
  2. Handling API Rate Limits - Facebook/Instagram
  3. AI Content Authenticity Crisis 2026 - Digiday
  4. AI Infrastructure Cost Optimization - Deloitte
  5. Freemium Conversion Rates - First Page Sage
  6. Progressive Onboarding Best Practices - Eleken
  7. Chatbot UX Failures - AIM Multiple
  8. WhatsApp vs Telegram Bot Development Guide
  9. Italian SaaS Market Analysis - Bonafide Research
  10. Social Media Management 2026 Trends - Hootsuite

Tutte le fonti complete linkate nel corpo del documento.