蚂蚁-芝麻-数据-数据工程师/分析师/数据科学-实习-26年毕业

【重要提醒】停止简历收集,目前对标HC,简历已经差不多够了,下一步启动筛选和评估。不浪费大家机会哈。

如果有兴趣,可以找其他师兄内推,或者蚂蚁校招实习官网投递。

  • 投递邮箱:ruge.zxy@alipay.com
  • 简历统一命名:姓名-学校-专业
  • 岗位:蚂蚁集团-芝麻信用事业部-芝麻信用技术部-芝麻信用数据

1. 开头献礼

毕业7年了,蚂蚁也呆了7年了,基本每年都来牛客网招聘实习生,最近比较忙,献礼献不动了,有需要相关书籍的看看早几年的招聘帖子。直接入重点了...

2. 我们是谁?

蚂蚁集团-芝麻信用事业部-芝麻信用技术部-芝麻信用数据 团队

3. 我们做什么?

  1. 负责蚂蚁芝麻信用事业部的数据体系、商家画像、商家标签体系和解决方案建设,为业务构建稳定、有保障、可持续发展的数据基建,整体保障业务数据质量、生产效率及服务稳定性;
  2. 负责业务域核心数据体系的规划设计,制定数据服务策略、增长策略,协同运营、产品、工程等探索数据智能化和产品化体系建设,促进业务增长;
  3. 结合数据服务工具/产品,提升数据研发工作效率,通过AB实验设计、因果推断、深度学习等手段,量化运营策略效果和价值,科学评估运营手段,为业务决策提效,灵活支撑业务的增长、创新和探索;
  4. 通过对商家行为、商家供给及核心场景的理解,建设商家经营知识库,结合大模型,构建语义化、自动化的商家助手能力。

4. 我们要发帖子做什么?

当然是寻找适合此岗位的骨骼惊奇的你。

5. 招聘对象

  • 国内外高校25届(202511-202610)毕业的同学
  • base地:上海(陆家嘴~支付宝S空间)、杭州(西溪路~蚂蚁A空间)为主,具体高德自行搜索
  • 邮件主题统一格式备注:姓名-学校-专业,大家如果感兴趣直接发简历到邮箱,官网投递简历容易进简历池,捞不到,注意命名格式私信沟通有惊喜,当前校招系统已经开放,行动起来吧!

6. 岗位要求

相信当你们准备投数据工程师岗位的时候,大致知道这个岗位的要求是啥了,大模型和大数据都这么火了,数据应该都懂。下面简单列几条:

  • 熟悉一门数据处理语言,如SQL、JAVA、Python等,了解接触过unix或者linux;具备扎实的专业基础,良好的沟通能力和团队合作,逻辑清晰,主动积极,乐于面对挑战;
  • 参与过数据处理、分析、挖掘等相关项目更好,特别是在互联网公司有相关实习经验或者实验室做数据建模相关的,了解常用数据处理技术;
  • 对Hadoop、Hive、Hbase、Spark、Flink等分布式平台有一定框架上的了解更好,不要求平台开发;不要求会java开发、不要求对算法很掌握,岗位偏数据分析,与此同时会参与数据中间层建设,主要工具是HADOOP平台,主要语言Hive SQL,主要理论是常用分析方法、数仓理论知识(如果一直在学校,不出去实习,这块不掌握也能理解)

感兴趣的同学们,就可以准备简历或者私信了解了,大家加油!!(表情包放了,好像力气更大了些,哈哈哈)

7. 划重点

所属团队历年实习转正情况都很不错,综合转正率超过80%,多年达到100%。工作弹性:周一到周五:早09:30晚20:00,有事情随时可以走,不用请假,不用说明。周三、周五高效日,18:00下班,周末双休。

#蚂蚁暑期实习#
全部评论
转正率高
1 回复 分享
发布于 05-14 11:44 浙江
来了来了,求捞
点赞 回复 分享
发布于 05-14 18:52 湖北

相关推荐

作业帮时间是随机的,今天下午测的。作业帮是10道选择题加2到算法题:选择题:考了数据结构排序二叉树,linux命令:awk '$NF' test 这里的test是一个有多行数据的文件,这命令是输出该文件末行的内容。还考了mapreduce优化数据倾斜的办法这里我好像选错了有两个选项一个是把count(distinct ) 替换为sum()group by 还有是将小文件先保存到内存中这两个好像是对的都可以优化数据倾斜此问题。还考了Flink的一些特性不过我还没学过flink,还考了kafka的高性能和低性能的一些问题,这我也是一脸懵。还考了六个盘的汉洛塔要移动几次才通过。然后是算法题,第一个是简单的二分查找,不过我只通过了94%,后面看估计是我对左右指针移动还是有点问题。第二个是leetcode32题,最长有效括号,可惜了我两个月前还写过但是还是没写对,只通过了63%。也不知道能不能过。阅文(寄了,以为是8.30考没想到是8.30结束结果只写了20分钟):这好像是前面是单选题,中间是不定项,后面是问答题单选题:考了hive内置函数,考了hive与spark的对比,hadoop节点默认备份是多少~(还考了斗破苍穹的主角是谁虽然我没看过印像中好像叫萧炎)不定项:有mysql中delete,drop和truncate这三者的区别特点(我对truncate完全没印象),还考了flink的一些知识。问答题:第一个是mapredce工作流程这个还好,第二个是如何解决spark数据倾斜的方法。这里时间不够了我一点没写,也没多少印象。这里我现在写一下加深点印象1.可以增加随机前缀或后缀:来打散数据分布,在后继计算中去除前后缀从而负载均衡2.广播小表,如果是原因是小表与大表join可以将小表广播到每个节点,避免产生数据倾斜。3.salting方法:为倾斜数据填加盐值,打散倾斜数据4.分区策略调整:通过自定义分区器或者合理选择内置分区器来均匀分布数据5.增大并行度:针对只有少量数据造成的倾斜任务,增加并行度可以更快地处理这些小任务6.数据预处理:合并一些小文件,fliter操作等第三四个就是写sql语句,第三个挺简单的就是第四题来不及看了。ok就是这些了,预祝大家都能找到自己想要的工作实现,我还是继续去沉淀去了,这一个月也不知道自己在忙些啥好像就是一直在刷算法题和sql题,八股都没怎么看,对组件的掌握还是太浅了。
查看14道真题和解析 投递阅文集团等公司6个岗位 数据人的面试交流地
点赞 评论 收藏
分享
评论
2
3
分享

创作者周榜

更多
牛客网
牛客企业服务