27 Jan 2026
Job Description
工作职责
▼ 工作内容
负责构建并优化支撑“SaaS+Database”服务的大数据基础设施(规模达数十TB)。
您将负责以下一项或多项工作:
・新建或优化用于网页数据抓取的管道
・数据清洗与数据丰富处理
・搭建以提升数据质量为目标的质量监控环境
・将数据基础设施优化为更具可扩展性且更具成本效益的平台
・着眼于未来数据科学应用,设计数据基础设施及数据质量管理体系
▼ 技术栈
- 数据采集
- Python (Scrapy)
- AWS Fargate for Amazon ECS
- Amazon Managed Workflows for Apache Airflow
- 数据存储
- Amazon S3
- Amazon Aurora PostgreSQL
- 数据转换
- Apache Spark on Databricks
- 其他
- GitHub
- Slack
- Notion
- Asana
- Google Workspace
▼ 内部工具
Slack / GitHub / Notion / Asana / Google Workspace
*SalesNow 以“生成式 AI × 大规模数据库”为核心,开发从根本上改变销售活动常识的 SaaS 产品。
我们已收录超过 1,400 万条企业数据,尽管正式员工仅约 20 人,也已实现 PMF。
目前,正值即将进入 B 轮融资阶段之际,作为日本国内最大规模之一的 AI 企业数据云,SalesNow 正迈入进一步飞跃的发展阶段。
在日本,随着超老龄化与人口减少不断加剧,有限的人力资源需要发挥更高的生产力。
我们正借助 AI 与数据的力量,消除销售现场的低效,打造支撑企业成长的新型基础设施。
目前,我们正致力于加强产品侧组织建设,并寻找能够在即将进入 B 轮的创业公司开发组织中,与我们共同打造未来 SalesNow 的创始成员。
您愿意发挥迄今积累的经验,与我们一起打造一项能够从根本上解决深层次工作方式问题、并成为职业生涯集大成之作的事业吗?
负责构建并优化支撑“SaaS+Database”服务的大数据基础设施(规模达数十TB)。
您将负责以下一项或多项工作:
・新建或优化用于网页数据抓取的管道
・数据清洗与数据丰富处理
・搭建以提升数据质量为目标的质量监控环境
・将数据基础设施优化为更具可扩展性且更具成本效益的平台
・着眼于未来数据科学应用,设计数据基础设施及数据质量管理体系
▼ 技术栈
- 数据采集
- Python (Scrapy)
- AWS Fargate for Amazon ECS
- Amazon Managed Workflows for Apache Airflow
- 数据存储
- Amazon S3
- Amazon Aurora PostgreSQL
- 数据转换
- Apache Spark on Databricks
- 其他
- GitHub
- Slack
- Notion
- Asana
- Google Workspace
▼ 内部工具
Slack / GitHub / Notion / Asana / Google Workspace
*SalesNow 以“生成式 AI × 大规模数据库”为核心,开发从根本上改变销售活动常识的 SaaS 产品。
我们已收录超过 1,400 万条企业数据,尽管正式员工仅约 20 人,也已实现 PMF。
目前,正值即将进入 B 轮融资阶段之际,作为日本国内最大规模之一的 AI 企业数据云,SalesNow 正迈入进一步飞跃的发展阶段。
在日本,随着超老龄化与人口减少不断加剧,有限的人力资源需要发挥更高的生产力。
我们正借助 AI 与数据的力量,消除销售现场的低效,打造支撑企业成长的新型基础设施。
目前,我们正致力于加强产品侧组织建设,并寻找能够在即将进入 B 轮的创业公司开发组织中,与我们共同打造未来 SalesNow 的创始成员。
您愿意发挥迄今积累的经验,与我们一起打造一项能够从根本上解决深层次工作方式问题、并成为职业生涯集大成之作的事业吗?
行业
IT
薪资
年薪400万至2,000万日元
工作地点详情
日本境内(完全远程办公)
最近车站
涩谷站
Requirements
日语水平要求
Fluent(Equivalent of N1)
工作经验要求
▼ 必备条件
・3年以上使用 SQL 和 Python 进行数据处理的经验
・3年以上使用公有云的经验
・目前居住在日本,或可以搬迁至日本
・由于日常工作以日语进行,需具备用日语进行商务沟通的能力(参考标准:相当于 JLPT N1 或以上)
▼ 优先条件
・使用 Apache Spark(含 PySpark)进行数据处理的经验
・使用 AWS Analytics 相关服务的经验
・使用 Databricks 的经验
・数据管理经验
・认同 DataOps 的理念
・3年以上使用 SQL 和 Python 进行数据处理的经验
・3年以上使用公有云的经验
・目前居住在日本,或可以搬迁至日本
・由于日常工作以日语进行,需具备用日语进行商务沟通的能力(参考标准:相当于 JLPT N1 或以上)
▼ 优先条件
・使用 Apache Spark(含 PySpark)进行数据处理的经验
・使用 AWS Analytics 相关服务的经验
・使用 Databricks 的经验
・数据管理经验
・认同 DataOps 的理念
学历要求
大学毕业及以上
Features
职位特点
Weekends and Holidays Off
Pay Raise
Any Age Welcome
Any Gender Welcome
职位名称
【海外人才岗位/正式员工】数据工程师(居住在日本)
工作时间
・完全弹性工作制(无核心时段)
・每日标准工作时间:8小时
・每日标准工作时间:8小时
签证要求
A valid visa with eligibility to work
福利待遇
◆ 各类津贴
・交通费全额报销
・居家办公津贴(每月10,000日元)
・购书补助(每月上限5,000日元)
・技能提升与生产力提升支持(每月上限10,000日元)
・聚餐交流津贴
・内推招聘奖励
◆ 健康与保障支持
・社会保险齐全(健康保险、厚生年金、工伤保险、雇佣保险)
・保姆补助制度
・综合体检(每两年一次/40岁及以上适用)
◆ 其他
・股票期权制度
・交通费全额报销
・居家办公津贴(每月10,000日元)
・购书补助(每月上限5,000日元)
・技能提升与生产力提升支持(每月上限10,000日元)
・聚餐交流津贴
・内推招聘奖励
◆ 健康与保障支持
・社会保险齐全(健康保险、厚生年金、工伤保险、雇佣保险)
・保姆补助制度
・综合体检(每两年一次/40岁及以上适用)
◆ 其他
・股票期权制度
交通补贴
Fully covered
试用期
3个月
保险
Employment Insurance
Health Insurance
Workers' Accident Compensation Insurance
招聘方式
Direct Hiring
Other jobs
- IT Shibuya-ku
Similar jobs
no result