MÔ TẢ CÔNG VIỆC
-
- Thiết kế và triển khai Kafka Streams và các phép biến đổi dựa trên KSQL để xử lý dữ liệu thời gian thực
- Phát triển và duy trì các pipeline CDC sử dụng Kafka Connect, Debezium hoặc các connector tùy chỉnh
- Xử lý việc load dữ liệu ban đầu từ các cơ sở dữ liệu quan hệ lớn một cách thủ công và đảm bảo chuyển đổi mượt sang CDC
- Làm việc với các bảng trong cơ sở dữ liệu quan hệ phức tạp, bao gồm:
+ Bảng không có khóa chính
+ Bảng có/không có ràng buộc
+ Bảng có quan hệ khóa ngoại
- Tối ưu hóa quá trình nhập/xuất và biến đổi dữ liệu để đảm bảo hiệu năng, độ tin cậy và khả năng mở rộng
- Hợp tác với kiến trúc sư dữ liệu, DBA, và các nhóm ứng dụng để đảm bảo tính toàn vẹn và nhất quán của dữ liệu
- Viết tài liệu kỹ thuật như sơ đồ dữ liệu, quy trình và tài liệu vận hành
- Giao tiếp hiệu quả với các nhóm đa chức năng và các bên liên quan
QUYỀN LỢI
-
- Mức thu nhập lên đến 40.000.000 VNĐ.
- Thưởng kết nối: thưởng 1~10 triệu cho bất cứ ai khi giới thiệu được bạn bè, người quen vào công ty.
- Làm việc với hệ thống lớn và tiên tiến, có cơ hội phát triển technical skills toàn diện với các bài toán phức tạp, yêu cầu độ chính xác cao.
- Trở thành một trong những KeyPerson có sức ảnh hưởng trong dự án, cơ hội cao trở thành Leader, Project Manager.
- Tham gia các hoạt động gắn kết nhân sự: các giải Game Online cuối tuần (Half-Life, AOE, Dota2, LOL, Pubg...), Team Building theo tuần, theo tháng, theo dự án.
- Cơ hội thăng tiến dựa trên năng lực tương ứng với tăng bậc và tăng lương tương xứng.
- Cơ hội triển khai các dự án tham vọng ở nhiều quốc gia, tiếp xúc với những công nghệ mới nhất và học hỏi từ những đồng nghiệp giỏi.
- Được tham gia các khoá đào tạo kỹ năng: AWS, Microservice, ngoại ngữ (tiếng Anh, tiếng Nhật)...
YÊU CẦU
-
- Có kinh nghiệm thực tế mạnh với Apache Kafka, Kafka Streams và KSQL
- Thành thạo các công cụ Kafka Connect và CDC (Debezium, Confluent)
- Hiểu sâu về Oracle, MS SQL Server và PostgreSQL cũng như thiết kế lược đồ cơ sở dữ liệu
-Có kinh nghiệm xử lý dữ liệu phi tiêu chuẩn và giải quyết các thách thức liên quan đến sao chép dữ liệu bằng CDC
- Hiểu biết về chiến lược nhập/xuất dữ liệu và tích hợp với pipeline streaming
- Thành thạo các định dạng serialization dữ liệu (Avro, JSON, Protobuf)
- Thành thạo Java hoặc Scala để phát triển hệ thống Kafka
- Kỹ năng giao tiếp xuất sắc — cả viết và nói
- Giao tiếp tiếng Anh tốt