2021届上汽通用营销plus管培生面经(offer待入职)

个人背景介绍:

家穷人丑,一米四九,小学文化,一米四九。

哎?好像不对。好了,简单介绍下自己的背景哈。

男生,魔都211商科硕士,本科双非生物学。在面试上汽通用前有4段实习3段地产营销策划、品牌实习(看得出来之前意向行业是地产),最近一段是在一家互联网做内容运营,无车企实习。

虽然没有车企实习,但相关的品牌及内容运营的实习让我对营销岗位求职影响非常大!

上汽通用我投递的岗位是 营销plus管培生。今天春招是第一次启动这个项目,所以仍然试错的成本还是蛮高的。 一共经历了算是3次面试/测试  分别是 群面(线下)——数据分析题目作业——视频面

下面是当时春招的宣讲


一面:群面

地点:上汽通用总部

面试形式:无领导小组,7-9/

题目:根据给的材料,设计一款音频APP,并考虑其营销推广方案及盈利模式。

过程:2分钟自我介绍及对这个音频APP是否可行的看法——30分钟讨论——5分钟小组汇报——15分钟自由提问

面试官2位,一位HR,一位年纪40-50岁左右的leader

自由提问环节:

汇报结束后,由leader简单问了几个同学,包括你认为这场谁表现的最好?你认为你的观点可行吗?然后,leader问了所有同学一个问题:你觉得上汽通用在营销方面上,有哪些需要改进的地方?

当时我们小组的观点主要有:

1、 不够讨好年轻人,营销不够年轻化

2、 凯迪拉克洗浴梗太影响车主了

3、 没有重视新媒体营销等等

一面结束后,当场宣布通过面试的名单。


二次测试:别克销售数据分析

一面结束后3-5天,上汽通用的hr加我微信说需要 考察一下同学们的数据分析能力,给了一份2015-2017年别克各个车型销量的excel表,做一个简单分析,2天后微信发给她。

二面:当天上午把数据分析报告发给hr,下午安排的视频面。

形式:视频面试

面试官:一位hr,一位女leader(应该是别克品牌的)

时长:10分钟左右

题目:

1、 简单的自我介绍(1分钟内)

2、 如果你来到上汽通用,想要做哪个方向的工作?

答:线上营销(原因:1、感兴趣+互联网实习背景)

3、 你对汽车行业的看法?

答:看好,行业处于重大变革期,会有很多机会(企业层面&个人发展层面)

4、 手里还有什么offer吗?跟上汽通用比怎么样?

答:地产+互联网的offer。各有好坏。(这个回答的不太好)

5、 看你简历上说读书比较多,最近读了哪些书?

答:互联网运营之光、影响力、价值



写在最后:

回顾秋招+春招,总共拿了10+offer,最后还是选择来上汽通用了。说说它吸引我的点:

1、 平台足够大&行业处于巨大变革期

2、 第一年招plus管培生,可能会有先入者红利

3、 待遇还不错。(大概20w上下,955工作制)

希望自己的选择不会后悔~~也祝学弟学妹们秋招顺利~

最后,想进上汽通用的学弟学妹可以私聊我哦,可以内推哈。

#上汽通用汽车##校招##营销管培生#
全部评论
os上的分享是真的吗,楼主
2 回复 分享
发布于 2021-11-10 12:01
上汽通用需要内推的可联系我哈
1 回复 分享
发布于 2021-05-24 20:20
请问这个岗位主要是什么工作方向呢,有什么必须的要求吗,快要面试了还不没有找到相关资料
点赞 回复 分享
发布于 2021-10-30 11:05
谢谢楼主
点赞 回复 分享
发布于 2021-10-23 23:20
请问楼主或许有hr的联系方式吗~我收到了电话说要安排面试,但是一直也没有收到面试邀请邮件,或者像电话里说的那样会有人来加我微信...
点赞 回复 分享
发布于 2021-10-22 13:20
请问楼主在线测评有多少题呀?难度大吗
点赞 回复 分享
发布于 2021-09-23 16:05
楼主你面试前有参加笔试嘛,我在前程无忧投递后做了在线测评,然后通知有测评通过等面试,但是在官网查不到申请记录🥲
点赞 回复 分享
发布于 2021-09-14 17:29
楼主我们一个项目的,加个微信呀
点赞 回复 分享
发布于 2021-05-25 21:51
😀
点赞 回复 分享
发布于 2021-05-25 08:52
感谢同学分享的面试经历~100元京东卡已私信发放,请注意及时查收~😉  ----------------------  邀请大家参加春招面经征集活动呀~ 写面经,攒人品,领100元京东卡、牛客周边! 机械汽车专场:https://www.nowcoder.com/discuss/611330
点赞 回复 分享
发布于 2021-05-22 16:52

相关推荐

多模态模型横向对比除了 Video-LLaMA,还了解哪些主流多模态大模型?→ 常见的有 LLaVA、Flamingo、BLIP、BLIP-2、KOSMOS、PaLI 等简单介绍 ALBEF 和 BLIP 这两个模型的核心设计→ ALBEF:基于图像 - 文本对比学习,搭配动量蒸馏来优化图文对齐效果;BLIP:引入 captioner 生成高质量图文对,再结合 filter 机制筛选优质数据BLIP-2 的整体结构是什么?两阶段训练流程是怎样的?用到了哪些损失函数?→ 结构:在 ViT 和大语言模型之间插入 Q-Former 作为中间桥梁→ Stage1:冻结 ViT 和语言模型,只训练中间的 Q-Former→ Stage2:冻结语言模型,将 Q-Former 与 LM 连接,做指令微调→ 损失:ITC(图文对比损失)+ ITM(图文匹配损失)+ LM 生成损失微调方法(PEFT 全家桶)了解 PEFT 吗?再讲讲 LoRA,重点说明低秩假设的合理性→ PEFT 是参数高效微调的统称,核心是只训练少量参数而不动原模型权重;LoRA 假设模型权重更新量 ΔW 具有低秩特性,将其分解为 A×B,只训练 A、B 两个低秩矩阵,既节省显存又能保留效果除了 LoRA,还有哪些 PEFT 方法?Prefix-tuning 和 P-tuning 有什么区别?→ 其他方法:Adapter Tuning、Prefix-tuning、P-tuning、IA³ 等→ Prefix-tuning:在输入序列前加可学习的 prefix,作用于注意力的 K/V 矩阵,更适合 decoder-only 架构→ P-tuning:用小型网络(如 LSTM)生成连续的 soft prompt,解决离散 prompt 不稳定的问题,更适配 encoder-decoder 模型大模型训练范式你项目中用到的大模型结构是什么?多模态特征是如何喂给大模型的?→ 示例流程:视频帧 → TimeSformer 提取时空特征 → 特征池化 → 线性投影对齐到文本维度 → 拼接到文本 prompt 之前 → 输入 LLM大模型在做了指令微调后,为什么还需要 RLHF?→ 指令微调只是让模型学会遵循指令,但输出可能更偏向 “模板化”;RLHF 是通过人类偏好对齐,让模型输出更符合人类价值观、更自然、更有用的回答,解决 “有用性” 和 “安全性” 问题了解 RLHF 吗?描述它的完整训练流程→ 三阶段流程:① SFT 微调:用高质量指令数据对预训练模型做监督微调,让模型学会基本指令遵循② 训练 Reward Model(RM):用人类标注的偏好数据训练奖励模型,学习给不同模型输出打分③ PPO 优化:用 RM 作为奖励信号,通过 PPO 算法更新策略模型,最大化 RM 给出的奖励,实现与人类偏好对齐手撕 LeetCode 原题:合并 k 个升序链表→ 核心思路:用小根堆维护 k 个链表的当前节点,每次弹出最小值节点并入结果链表,再将该节点的下一个节点入堆,直到所有链表遍历完毕;时间复杂度 O (N log k),N 为总节点数
查看9道真题和解析
点赞 评论 收藏
分享
评论
11
57
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务