Skip to content
CodeHub
Jobs
Worldwide hiring
Jobs
Remote
Companies
Browse
Ctrl
K
Sign in
前端开发工程师(数据工具方向) at VAST (Beijing) · CodeHub Jobs
Jobs
China
前端开发工程师(数据工具方向)
VAST
前端开发工程师(数据工具方向)
🇨🇳
Beijing, Beijing, China
19 hours ago
Mid
Full Time
ZH
Asia/Pacific
Apply on company site
Save
Application status
Applied
Interviewing
Offer
Rejected
Withdrawn
Job description
Rich
Markdown
Plain text
前端开发工程师(数据工具方向)
Beijing
Experienced
Full-time
Responsibilities1你将负责(Responsibilities) - Own 整套埋点与数据采集体系 — 主导事件模型设计与埋点字典,建设统一的采集层,让全公司有一套可信的事实数据。 - 打通商业化数据回传链路 — 把 Meta、TikTok、Reddit、Google 等广告平台的转化数据准确、合规地送回去,让市场每一分预算花得明白。 - 构建渠道归因体系 — 解决"用户从哪来、为什么留下、为什么付费"这三个问题的工程化答案。 - 推动数据驱动的产品决策 — 与增长、产品协作落地 AB 实验和漏斗分析,让重要决策有据可依。 - 守住数据质量与合规底线 — 建立埋点 review、Schema 校验和合规(GDPR / Consent)机制,让数据既可信又安全。Qualifications我们希望你具备(Requirements) - 3-5 年前端开发实战经验 — 写过生产级的 Vue / React 应用,熟悉 SSR 场景下的数据采集踩坑点(hydration、跨请求状态、SSR-safe 上报时机)。 - 数据采集与商业化回传实战经验 — 至少独立接入过 1-2 个主流广告平台的 Pixel 与服务端转化 API,理解事件去重、归因窗口、`event_id` 与 `external_id` 的作用。 - 理解归因模型而不只是埋点 — 知道 last-touch、first-touch、data-driven 各自的适用场景;处理过跨域、跨设备、跨 Session 的用户标识合并。 - 熟悉至少一个产品分析平台 — PostHog / Mixpanel / Amplitude / Firebase Analytics / GA4 任一,并真正用它做过决策,不只是发事件。 - Vue 生态深度使用者 — 熟练 Vue 3 Composition API、响应式原理;有 Nuxt SSR 经验优先,理解客户端/服务端环境差异对上报的影响。 - TypeScript 是你的默认选择 — 能为事件 Schema、归因上下文、用户属性写出准确的类型,让埋点像 API 一样有契约。 - 对性能有体感 — 懂得 `sendBeacon`、批量上报、空闲调度、`@nuxt/scripts` 加载策略,知道一个 Pixel 会让 TTI 多掉多少分。 - 数据敏感度 — 看到一组转化漏斗能立刻提出"哪里可疑",能用 SQL(哪怕 PostHog HogQL / BigQuery SQL)验证自己的怀疑。 - 能扛事,也能讲清楚 — 独立推进跨团队(市场 / 增长 / 数据 / 后端)协作,能把"为什么这个事件要这样定义"讲明白。 3. 加分项(Nice to Have) - 服务端归因经验 — 在 Node.js / Nitro 中接入过 Meta CAPI、TikTok Events API、Snapchat CAPI 等服务端事件 API,处理过 IP / UA / 哈希用户标识。 - GTM / Server-side GTM 实战 — 玩转过自定义模板、变量、触发器,理解从 dataLayer 到广告平台的完整链路。 - 数据治理体系经验 — 用过 Avo / Mixpanel Lexicon / Iteratively 等埋点字典工具,或自建过类似工具链。 - AB 实验体系经验 — 接入过 GrowthBook / Statsig / Optimizely 或自研实验框架,懂得显著性、样本量、SRM 的工程含义。 - 隐私合规深度实践 — 落地过 Consent Mode v2、Apple Privacy Manifest、SKAdNetwork 等合规要求。 - 跨端归因经验 — 处理过 App / Web 双端归因(AppsFlyer / Adjust / Branch),理解 deferred deep link。 - 数据可视化能力 — 能用 PostHog Insights / Looker Studio / Metabase 等做出可读、可决策的看板,而不是把数据堆给别人。 - 对 AIGC 和 3D 生成赛道有热情 — 关注我们在做的事,对"AI 产品的转化漏斗"有自己的思考。 4. 你将获得(What You'll Get) - 你定义指标,不是接需求 — 在多数公司,前端只是埋点的执行方;在这里,事件怎么定、归因怎么算、什么是"一次有效转化",由你来回答。 - 一片真正的数据无人区 — AI 3D 是全新品类,没有 SaaS 增长教科书可抄。你做的每一个判断,都可能成为这个赛道未来的最佳实践。 - 能看见自己的决策变成钱 — 全球多渠道投放真金白银地花,你的归因模型、回传修复、漏斗优化,第二天就能在 ROAS 上看到结果 —— 这种正反馈在大厂里几年都遇不到一次。 - 罕见的复合技术栈 — 前端工程 + SSR + 商业化数据 + AI 产品,行业里几乎找不到第二个团队同时跑这四件事。三年后你的简历会非常稀缺。 - 聪明、克制、不内耗的团队 — 小团队、零无效会议、决策链短到只有几个人。你不用花时间证明自己应该被信任。 - AI 是真生产力,不是 KPI 口号 — 我们已经把 AI 编程工具用在埋点生成、Schema 校验、SQL 探查上 —— 来这里你会被"卷"得很爽。 - 有竞争力的薪酬与早期期权 — 与能力匹配的现金,以及早期加入对应的期权回报。 --- > 投递方式:请将简历发送至 [邮箱],邮件标题注明「前端工程师(数据方向)- 姓名 - 工作年限」。强烈建议附上:你做过的埋点方案文档、归因或 AB 实验的案例复盘、对一个公开产品事件模型的拆解 —— 这些比 GitHub star 数更能打动我们。如果你写过"如何用前端工程手段保障数据准确性"相关的内容,请一定发给我们。
Apply
Apply on company site