Blogs (码码要洗手)

简历

田海军

男 | 31岁 | 本科 | 网络工程 | 吉首大学 | 深圳


个人简介

具备扎实的编程基础与工程能力,8年+ Web 后端开发经验,擅长设计 高可用、高并发、易维护 的服务系统。具备丰富的 API 设计、分布式任务调度、数据抓取与处理、系统监控告警 实践经验,追求代码质量与系统可观测性并重。主导开发 AfterShip 核心订单追踪系统,SLA 提升至 99.98%,调度系统吞吐提升至 5000 RPS,业务持续稳定增长。


技能清单

  • 后端开发: FastAPI, Tornado, Django, Go
  • 系统架构与并发: Celery, Pub/Sub, Redis, LMSTFY
  • 数据库设计与优化: PostgreSQL, MySQL, MongoDB, Redis, Spanner
  • CI/CD 与可维护性: Docker, Kubernetes, GitHub Actions, Jenkins, Git
  • 数据处理与抓取: Scrapy, Aiohttp, Selenium, XPath, Pandas, Pydantic
  • 可观测性与测试: PyTest, Prometheus, Grafana, ELK, Sentry, Locust, TDD

工作经历

  • AfterShip (2018.03 - 2019.06 & 2020.08 - 2024.09) Python开发工程师
  • 云集科技 (2019.06 - 2020.08) Python后端开发
  • 北京至信普林科技有限公司 (2016.06 - 2018.03) Python爬虫开发

项目经验

AI视频解析与功能集成平台

背景:面对短视频和在线教育内容爆发式增长,用户对自动化、高效的视频转文本服务需求迫切。

挑战:系统需在 保证识别准确率的同时,处理高并发请求,支持多功能接入与可观测性建设

优化方案

  • 视频解析管道搭建:基于深度学习模型实现音频识别与文本提取,显著提升转写准确率。
  • 异步任务架构设计:采用 FastAPI + PostgreSQL + Celery 构建模块化后端,提升系统响应能力与扩展性。
  • 多渠道认证与支付集成:接入 短信、微信、邮箱登录微信/支付宝支付,用户转化路径清晰、稳定。
  • 功能模块拆分:任务管理、文件夹管理、兑换码、邀请机制等按功能域解耦,增强可维护性。
  • 网盘能力接入:对接 百度,阿里网盘 API,实现视频文件上传解析一体化。
  • 测试与监控建设
    • 使用 Pytest 实现核心逻辑单元测试与集成测试覆盖率 >80%;
    • 引入 Prometheus + Grafana + Sentry 实现接口耗时、任务队列、支付异常等关键指标监控与告警。

成果

  • 平均任务处理时延降低至 <2秒,支持并发解析任务数提升 3倍
  • 视频转写准确率提升 15%+,日均处理视频数破千,平台用户增长 230%+
  • 多端认证/支付流程故障率 <0.2%,支付成功率提升 12%
  • 构建完善可观测体系,核心链路告警响应时间 <10秒。

Couriers API - 高并发订单追踪系统

背景:作为 AfterShip 核心 API,为全球电商平台提供实时订单追踪服务。

挑战:需满足 高并发访问、高可用 SLA、数据一致性与接口实时性 要求。

优化方案

  • 架构升级至 FastAPI + Aiohttp,优化 I/O 阻塞,提升吞吐能力;
  • 构建 Redis 缓存层,加速核心数据访问;
  • 引入 Prometheus + Grafana + PagerDuty 实现全链路监控告警。

成果

  • API 吞吐能力提升 45 → 200 RPS
  • 95% 请求响应时间降至 200ms
  • 故障率下降 40%,SLA 提升至 99.98%

高并发任务调度系统

背景:平台需处理超 5000万 订单状态更新任务,要求实时、稳定、高吞吐。

挑战:Celery 架构性能瓶颈,任务失败率高,缺乏精细调度能力。

优化方案

  • 重构任务系统,使用 Go + LMSTFY 替代 Celery;
  • 引入 令牌桶限流机制,控制突发流量;
  • 基于 Pub/Sub 实现任务均衡分发。

成果

  • 任务处理能力提升至 5000 RPS+
  • 任务重试率下降至 2% 以下
  • 系统稳定性与可维护性显著提升。

电商数据爬取与 CICD 流程优化

背景:为支持多个电商平台数据监测需求,需构建稳定、高效的爬取系统与交付流程。

挑战:原始架构吞吐低、部署依赖手工流程、监控能力缺失。

优化方案

  • 搭建 Kafka + Scrapy-Redis 分布式爬虫系统,支持海量数据并发抓取;
  • 构建 Jenkins + GitLab CI + Rancher 自动化部署流水线,实现交付标准化;
  • 引入 ELK + Sentry 监控日志异常,快速定位问题。

成果

  • 日均爬取数据量提升至 20万+ 条目
  • 新功能上线周期缩短 25%,测试效率提升 40%+
  • 生产故障率下降 25%,系统长期稳定运行。