简历
田海军
男 | 31岁 | 本科 | 网络工程 | 吉首大学 | 深圳
- Python / Go Web 开发工程师,8年+工作经验
- GitHub: https://github.com/wsgggws
- Email: wsgggws@gmail.com
- Bili: https://space.bilibili.com/472722204
个人简介
具备扎实的编程基础与工程能力,8年+ Web 后端开发经验,擅长设计 高可用、高并发、易维护 的服务系统。具备丰富的 API 设计、分布式任务调度、数据抓取与处理、系统监控告警 实践经验,追求代码质量与系统可观测性并重。主导开发 AfterShip 核心订单追踪系统,SLA 提升至 99.98%,调度系统吞吐提升至 5000 RPS,业务持续稳定增长。
技能清单
- 后端开发: FastAPI, Tornado, Django, Go
- 系统架构与并发: Celery, Pub/Sub, Redis, LMSTFY
- 数据库设计与优化: PostgreSQL, MySQL, MongoDB, Redis, Spanner
- CI/CD 与可维护性: Docker, Kubernetes, GitHub Actions, Jenkins, Git
- 数据处理与抓取: Scrapy, Aiohttp, Selenium, XPath, Pandas, Pydantic
- 可观测性与测试: PyTest, Prometheus, Grafana, ELK, Sentry, Locust, TDD
工作经历
- AfterShip (2018.03 - 2019.06 & 2020.08 - 2024.09) Python开发工程师
- 云集科技 (2019.06 - 2020.08) Python后端开发
- 北京至信普林科技有限公司 (2016.06 - 2018.03) Python爬虫开发
项目经验
AI视频解析与功能集成平台
背景:面对短视频和在线教育内容爆发式增长,用户对自动化、高效的视频转文本服务需求迫切。
挑战:系统需在 保证识别准确率的同时,处理高并发请求,支持多功能接入与可观测性建设。
优化方案:
- 视频解析管道搭建:基于深度学习模型实现音频识别与文本提取,显著提升转写准确率。
- 异步任务架构设计:采用 FastAPI + PostgreSQL + Celery 构建模块化后端,提升系统响应能力与扩展性。
- 多渠道认证与支付集成:接入 短信、微信、邮箱登录 及 微信/支付宝支付,用户转化路径清晰、稳定。
- 功能模块拆分:任务管理、文件夹管理、兑换码、邀请机制等按功能域解耦,增强可维护性。
- 网盘能力接入:对接 百度,阿里网盘 API,实现视频文件上传解析一体化。
- 测试与监控建设:
- 使用 Pytest 实现核心逻辑单元测试与集成测试覆盖率 >80%;
- 引入 Prometheus + Grafana + Sentry 实现接口耗时、任务队列、支付异常等关键指标监控与告警。
成果:
- 平均任务处理时延降低至 <2秒,支持并发解析任务数提升 3倍;
- 视频转写准确率提升 15%+,日均处理视频数破千,平台用户增长 230%+;
- 多端认证/支付流程故障率 <0.2%,支付成功率提升 12%;
- 构建完善可观测体系,核心链路告警响应时间 <10秒。
Couriers API - 高并发订单追踪系统
背景:作为 AfterShip 核心 API,为全球电商平台提供实时订单追踪服务。
挑战:需满足 高并发访问、高可用 SLA、数据一致性与接口实时性 要求。
优化方案:
- 架构升级至 FastAPI + Aiohttp,优化 I/O 阻塞,提升吞吐能力;
- 构建 Redis 缓存层,加速核心数据访问;
- 引入 Prometheus + Grafana + PagerDuty 实现全链路监控告警。
成果:
- API 吞吐能力提升 45 → 200 RPS;
- 95% 请求响应时间降至 200ms;
- 故障率下降 40%,SLA 提升至 99.98%。
高并发任务调度系统
背景:平台需处理超 5000万 订单状态更新任务,要求实时、稳定、高吞吐。
挑战:Celery 架构性能瓶颈,任务失败率高,缺乏精细调度能力。
优化方案:
- 重构任务系统,使用 Go + LMSTFY 替代 Celery;
- 引入 令牌桶限流机制,控制突发流量;
- 基于 Pub/Sub 实现任务均衡分发。
成果:
- 任务处理能力提升至 5000 RPS+;
- 任务重试率下降至 2% 以下;
- 系统稳定性与可维护性显著提升。
电商数据爬取与 CICD 流程优化
背景:为支持多个电商平台数据监测需求,需构建稳定、高效的爬取系统与交付流程。
挑战:原始架构吞吐低、部署依赖手工流程、监控能力缺失。
优化方案:
- 搭建 Kafka + Scrapy-Redis 分布式爬虫系统,支持海量数据并发抓取;
- 构建 Jenkins + GitLab CI + Rancher 自动化部署流水线,实现交付标准化;
- 引入 ELK + Sentry 监控日志异常,快速定位问题。
成果:
- 日均爬取数据量提升至 20万+ 条目;
- 新功能上线周期缩短 25%,测试效率提升 40%+;
- 生产故障率下降 25%,系统长期稳定运行。