PM × AI 协作实践分享

全球券商竞品雷达
8 大市场 50+
家竞品从数据采集到信号看板,全自动一键生成

用 Claude Code 将“竞品情报周报”做成可运行的自动化工作流:持续采集多源信息,识别变化,生成红黄绿信号,并输出可演示、可追踪、可复用的业务报告。

8覆盖市场
50+竞品条目
10数据源类型
14天完成闭环
Our Team

小组成员

需求分析阶段群策群力,碰撞想法、打磨方向;
实现阶段各自认领感兴趣的方向,独立落地自己的版本
我们的目标:让每个人都有所实践、有所收获

ethanwu
武亚斌
ethanwu
张坚庭
timzhang
吴漾
renawu
许鑫
leoxu
黄凡
steffihuang
T
THONGCHAI
joezeng
共同分析需求
各自选择方向
独立实现落地
实践中成长
01 — 要解决的问题

从“人工收集竞品动态”到“自动发现业务信号”

这次实践要解决的是:竞品变化如何被持续发现、准确理解。场景是日常工作竞品情报周报,强调定期汇总、风险分级和行动建议。

传统方式

  • 人工搜索新闻、官网、应用商店和社区
  • 靠截图、复制链接、手动整理 PPT
  • 持续占用大量时间,低效且无成长性
  • 结论常停留在“感觉竞品在调整”
VS

自动化目标

  • 自动采集多市场、多竞品、多数据源
  • 用 Diff 和 AI 判断变化是否重要
  • 输出红黄绿风险和对应行动项
  • 让周报成为决策入口,而不是资料堆积

竞品更变通知

关注“哪些页面、规则、费率或政策发生了变化”,并把变化同步给对应负责人。

变化捕捉

竞品情报周报

关注“本周哪些竞品动作最值得看”,并形成市场、产品、运营可读的摘要。

定期输出

行动建议

关注“我们应该怎么响应”,把事实、判断和下一步动作放在同一条信号里。

决策转化
已解决

从人工资料整理到自动化交付

目前已经证明了从需求定义、过程数据库、飞书周报到线上 Dashboard 的链路可以跑通,并能把竞品信息整理成业务可读的周报形态。

待验证

从可运行系统到业务效果闭环

后续还需要继续验证 AI 判断准确率、是否发现人工会漏掉的真实信号,以及周报是否被业务团队长期使用。

02 — 实现路径及特点

四层架构 + Claude Code 委派式协作

实现路径先搭建端到端工作流:采集、存储、分析、输出。Claude Code 负责把目标拆成可运行模块,PM 负责定义竞品范围、业务口径和验收标准。

采集层 — 多源数据入口

App Store / Google Play Google News RSS Reddit 社区 Google Trends Stooq / Google Finance 出入金规则页 营销活动页

存储层 — 结构化沉淀

Bitable 多维表 JSON 数据包 MD5 页面快照 采集日志

分析层 — CLAUDE 智能处理

情绪评分 摘要生成 Diff 解读 红黄绿分级 行动建议生成

输出层 — 三种最终交付

飞书文档周报 单文件 HTML 看板 Cloudflare Pages Dashboard 后续可扩展告警

Claude Code 的差异点

普通聊天式工具更像问答助手,擅长解释、润色和生成片段;Claude Code 更像可以进入项目环境的执行型 Agent。它能读文件、改代码、跑命令、看报错、修复问题,并把结果重新交付。

对 PM 来说,交互方式从“问 AI 怎么做”变成“把目标和约束委派给 AI”。

PM 的核心价值不是写代码,而是判断该监控什么、数据口径是否正确、最终产出是否可用于决策。

# 委派式协作示例
PM: 做一个出入金规则变化监控,写入 Bitable
AI: 设计采集器、快照、Diff、字段结构并实现
PM: 入金来源口径改为 Bank
AI: 定位引用、统一修改、重新生成页面
PM: 营销变化也放进周报
AI: 新增采集器、输出模块和展示区块
03 — 具体实现方案和表现(最终版)

最终版:竞品情报周报与 Dashboard

最终版要证明的不是“AI 已经替代业务判断”,而是竞品情报周报可以从人工整理推进为一条可运行、可追踪、可持续更新的自动化工作流。当前已经有 8 个市场、50+ 家竞品清单、过程数据库、数据源与采集频率说明、飞书周报和线上 Dashboard 作为证据;尚未完全证明的是 AI 判断准确率、人工漏检信号发现能力,以及周报进入团队真实决策后的业务闭环。

STEP 1定义市场与竞品
STEP 2自动采集多源数据
STEP 3Claude 分析与分级
STEP 4生成周报和看板
STEP 5业务验证与迭代

3.1.1 方案介绍

方案核心是建立“竞品情报自动化闭环”:先定义市场和竞品清单,再接入不同类型的数据源,随后用 AI 将非结构化内容转成结构化信号,最后用可读、可演示、可追踪的形式输出。当前已经解决的是自动化交付链路,后续重点是把信号准确率和业务使用情况继续验证出来。

3.1.2 具体描述及实现情况

红黄绿判断标准

信号不是只看 AI 结论,而是结合影响范围、紧急度、竞品强度和证据可信度进行分级。T1/T2/T3/T4 数据可信度用于提醒读者哪些来自官方或聚合来源,哪些仍需要人工核实。

影响范围

涉及市场、用户群、产品模块和潜在业务影响。

紧急度

是否需要本周响应,是否会影响近期运营节奏。

竞品强度

竞品动作是否具备规模、传播声量或产品差异。

证据可信度

优先看官方、聚合数据和可追溯来源,AI 判断需要标注边界。

红色信号:PDT 松绑与活跃交易用户争夺

判断逻辑:影响范围较大、紧急度较高、竞品强度明显,因此被放入红色信号。当前结论可用于演示信号生成方式,后续仍需用业务反馈验证响应效果。

黄色信号:SG / CA / AU 本地化竞争升温

判断逻辑:多个区域出现功能、费率、内容传播和用户情绪变化,但紧急度低于红色信号,适合作为周报中的持续观察项。

绿色信号:MY 情绪稳健与 AI 功能传播模板

判断逻辑:正向市场表现和可复用传播模板可以沉淀为参考案例,但是否能跨市场复用,还需要后续运营数据验证。

3.1.3 最终表现

可试用链接:https://moomoo-intel.pages.dev/

8红色信号
7黄色信号
3绿色信号
10数据源

两种输出形态

  • 飞书文档周报 — 每周一自动生成,包含执行摘要、红黄绿信号、行动建议,适合邮件转发和评审会阅读
  • 线上 Dashboard — 实时查看评分趋势、版本更新、出入金规则、营销动态,支持按竞品和区域筛选

数据可信度分级

每条信号标注数据来源等级,帮助读者判断结论可靠程度:

T1 官方公告 / API T2 聚合平台数据 T3 社区 / 用户评论 T4 AI 推断(需人工核实)
moomoo 竞品情报 Dashboard
已验证

已经可以证明的问题

  • 覆盖范围:8 个市场,50+ 家竞品清单见需求文档。
  • 数据底座:过程数据库可以验证采集字段、数据源和采集频率。
  • 自动化交付:飞书周报和线上 Dashboard 已发布,当前可持续运营和更新。
  • 效率收益:当前估算每周节省约 2 小时人工整理时间。
待验证

还不能直接下结论的问题

  • 漏检信号:暂无人工会漏掉的真实信号案例,需要继续追踪。
  • AI 准确率:需要进一步人工抽检,不能直接声称准确。
  • 业务使用:暂无团队真实推广应用结果,需要后续验证。
  • 决策闭环:是否推动业务动作和结果改善,还需要持续运营数据支撑。
03.2 — 最终表现的个人评价

产出质量最重要是满足需求,后续重点是能持续运营

维度 评分 评价
产出内容质量
关注方案输出的东西
8.5 已满足核心需求:有需求文档、过程数据库、飞书周报和 Dashboard,输出包含事实、判断、风险等级和建议动作。扣分点是 AI 判断准确率还需要进一步人工抽检。
实现复杂度
关注实现难易程度
8.0 已完成从需求、采集、存储、AI 分析、前端展示到线上发布的链路。复杂度主要来自数据源维护、采集频率、证据可信度和持续运营。
问题解决程度
关注整个工作流、方案对问题的解决程度
8.5 已经解决“从数据到周报/Dashboard 自动化交付”的问题;还没有完全解决“信号是否足够准、是否被业务团队使用、是否产生决策价值”的问题。
交互体验
关注自动化程度、交互是否友好、简便
8.0 线上 Dashboard 和飞书周报适合演示与阅读,当前可以持续运营和更新。后续若加入订阅、筛选、消息推送和人工校验入口,体验还能提升。
04 — 实现过程(附录)

从最小闭环到可分享系统

实现过程采用增量式策略:先用需求文档明确目标、范围,再用数据采集文档沉淀字段、竞品和数据源,最后通过飞书周报和 Dashboard 被业务直接阅读。这个过程本身形成了一条证据链:需求文档证明范围,过程数据库证明采集,飞书周报证明业务表达,线上 Dashboard 证明发布和持续运营。

第 1-2 天

需求文档:明确目标与验收标准

先把业务问题写清楚:要监控哪些市场和竞品、最终输出给谁看、什么样的信号算有价值。50+ 家竞品清单和 8 个市场范围在这里形成依据。

第 3-5 天

数据采集文档:搭建竞品数据底座

围绕竞品清单、数据源、字段和采集频率建立 Bitable 结构,支撑后续新闻、评分、趋势、股价和官网规则采集。每个市场和竞品是否采集,可以回到过程数据库核验。

第 6-8 天

Claude 分析能力集成

加入情绪评分、页面变化检测、结构化提取和信号分级。红黄绿判断采用影响范围、紧急度、竞品强度和证据可信度四个维度。

第 9-14 天

飞书周报到 HTML / Dashboard

先用飞书周报验证业务表达,再扩展为 HTML 演示版和 Cloudflare Pages 线上看板。当前已经发布部署到网络,并进入持续运营和更新。

05 — 踩坑实录与启示

真实踩过的坑,和给其他人的建议

做竞品情报自动化不是"让 AI 写几段代码"就能跑通的事。以下是我们在实践中真实遇到的问题,每个坑背后都有一条可复用的经验。

踩坑实录

小红书爬虫被平台警告

尝试爬取小红书竞品相关笔记和评论,触发反爬机制,账号收到平台风控警告。社交媒体平台对爬虫行为零容忍,轻则限流、重则封号甚至法律追责。

教训:社交平台数据不要碰爬虫。优先用官方 API、RSS、或人工定期摘录。竞品情报不值得承担合规风险。

🔒

高质量数据源都要付费

Sensor Tower、SimilarWeb、data.ai 等专业竞品数据平台都需要企业级订阅(年费数万美元起),免费替代方案的数据粒度和准确性差距非常大。

教训:接受免费数据的局限性,用"评分变化 + 评论量增量"近似下载趋势,标注数据可信度等级(T1-T4),而不是假装数据很准。

🚨

AI 分析会"编造"竞品动态

当输入数据不足时,Claude 会基于训练知识补充看似合理但无法验证的竞品信息,比如编造功能上线时间、费率调整细节。如果不加校验直接发到周报里,会严重损害可信度。

教训:AI 分析结果必须和原始数据交叉验证。Prompt 中加"如果数据不足,请明确说明而不是推测",输出里标注"来源 / AI 推断"。

🔄

免费 API 突然变更或限流

Google Play 评论接口经常超时;iTunes Lookup API 偶尔返回格式变化;Google News RSS 某些地区的结果为空。任何免费数据源都不保证 SLA。

教训:采集器必须有容错和重试机制。每次采集记录成功/失败日志,失败不要阻断整条 pipeline,而是在报告中标注"本期数据缺失"。

🌐

竞品官网加了反爬防护

出入金规则页、费率页等关键页面部分竞品加了 Cloudflare WAF 或动态渲染,静态 requests 抓取拿到的是空白页或验证码页面。

教训:对于反爬强的页面,改用定期人工快照 + MD5 对比的方式。不必所有数据都自动化,关键是"变化能被发现"。

📊

部分市场数据源极度稀缺

马来西亚、泰国等新兴市场的英文新闻和社区讨论极少,Google Trends 数据波动大、样本不足,导致这些市场的信号覆盖远不如美国、新加坡。

教训:坦诚标注覆盖差异,不要为了"8 个市场全覆盖"而硬凑低质量数据。对数据稀缺市场,采用本地语言源 + 人工补充的混合策略。

给其他人的启示

1

先跑通再做精,别上来就追求完美

第一版用最简单的免费数据源 + 最基础的 AI prompt 做出一份能看的周报,证明链路可行。然后再一个模块一个模块加强。如果一开始就想覆盖所有数据源,项目大概率烂尾。

2

数据可信度比数据量更重要

不要追求"看起来数据很多"。一个有明确来源、可验证的信号,比十个来路不明的 AI 推断有价值得多。始终标注 T1(官方)到 T4(AI 推断)的可信度等级。

3

容错设计是生存的前提

免费 API 会挂、页面结构会变、网络会超时。每个采集器都要有 try/catch、日志记录和"优雅降级"。一个数据源挂了不能让整份周报出不来。

4

自动化和人工不是二选一

最佳方案是"能自动化的自动化,不能自动化的给流程"。比如出入金规则变化用 MD5 快照检测,但触发后由人工确认具体变了什么。混合策略比纯自动化更可靠。

06 — 个人感悟

AI 负责执行,PM 进行判断

AI 真正提高效率的地方,是把一个模糊业务想法推进成可运行系统。未来 PM 的核心能力会更偏向问题定义、质量判断和业务经验、个人品味,而不是单纯的执行速度。这个项目也提醒我:可运行不等于已产生业务价值,最终仍要回到证据、准确率和真实使用场景。

PM 不再只写需求

更重要的是定义目标、约束、口径和验收标准。

AI 不只是生成内容

它可以承担工程执行、排错和重复迭代。

真正的难点仍是判断

哪些信号重要、哪些结论可用,哪些还需要人工核实,仍需要业务经验把关。