第80章 你见到的只不过是上半场(2 / 2)

学霸终结者 浙东匹夫 6131 字 2023-05-23

只不过,从去年产后,她很少过问公司的事情了,也就把用户体验总监的职位让了出去。

作为亚洲首富的妻子,她需要把更多精力放在亲自培养继承人方面,育儿上自然不能马虎。工作么,少她一个也没什么大碍。如今孩子已经周岁,她才渐渐能分出些精力关心顾莫杰的生意。

毕竟多年的用户体验工作积淀还在那儿,所以每天枕边风时刻,陆文君都要提她那句经典名言:

“人都是有自尊的,不愿意被机器猜透他的内心。如果机器对他的喜好猜得太准,用户反而会有抗拒逆反的心理,偏偏拧巴着来,说不定还会故意给人工智能提供错误的数据。”

这天,顾莫杰又是很晚回家,收拾收拾倒头就要睡。陆文君早早安顿好了孩子,亲手给他上精油按摩解乏,又提起了这个话题。

顾莫杰许是累了,不想长篇大论解释。

“这些事情,你都脱节工作两年了,我很难和你一句话解释清楚。别多想了,这事儿上我明白着呢。”

“你是不是又有女人了,这么不耐烦。”陆文君一副泫然欲涕的语气,让人多有不忍。

“想哪儿去了,我连婉清都一两年没沾了,你不方便的时候,就只碰过费姐和宝儿。不许再起这方面的疑心了——咱的财产,将来还不都是孩子的。”

“那你还嫌我烦,就跟我说说呗。口渴我给你倒水。”

顾莫杰被拗不过,只能答应。

他也知道,对身边的女人一直关心不够。尽管今年年初开始,陆文君身子彻底养好之后,他已经恢复交公粮了。

事业到了这个规模,那也是天意难违的。

陆文君给他端来一杯薄荷凉茶,他抿了一口,靠在枕头上搂着自己的女人。

“这事儿,不是你想的那样。我当然知道人都不喜欢被机器揣测自己的内心,但是,我们将来完全可以做得更隐蔽嘛。现在的推送模式会被人骂,那不是因为它智能程度还不够高,形式还不够简洁,所以才被骂。

但这是一个过程,是为了把推送人工智能训练得更强大,哪怕顶着骂声也不得不走过去的过程。”

陆文君靠在丈夫肩头,在他胸口画着圈圈,“你是说,将来的推送人工智能彻底完工之后,在表现形式上可以做到完全看不出是在‘主动推送’?可以表现得完全是‘呼之则来、挥之即去’的被动‘小受’姿态么?”

顾莫杰很自信地回答:“为什么不可以做到?”

陆文君双眸闪过一丝异彩:“可是,具体会是什么样呢?我完全都无法想像,如何才能又推送了东西,又显得被动。”

“你想想看,1998年上网的那些网民,用雅虎导航的人,会能够想象后来度娘和谷歌倡导的搜索引擎模式么?

雅虎导航,不就是把人们上网所需要常用的网址,都罗列出来,把最大众化的人需要的内容,都编辑链接起来么。

几年之后,发生了什么样的变化?人们上网后看到的第一个网页,是很干净的,一片雪白。除了一个度娘或者谷歌的logo,就只有一个输入框、一个搜索键。

所以度娘和谷歌的用户体验,完爆了雅虎导航。人们想要看什么,直接按所思所想打字就可以。当搜索支持的关键词越来越模糊、找到的结果越来越契合人们的需求,雅虎导航不就彻底衰落了么。

度娘和谷歌,就是上网的被动模式,可以让用户体验到充分的被尊重,体验到“是我主动想找,它们才给我这些。而不是别人送上门来的”的错觉。

推送算法及其背后的大数据积累,目前还不够多,分析准确度还不够。所以我们要先用相当于当年雅虎导航的模式,让它的曝光率和被使用率尽量高,把机器训练得更强。

等我们足够强之后,自然而然就可以转向度娘和谷歌的模式,到时候,用户也许就看不到每天的推送栏了。”

陆文君从顾莫杰怀里挣脱出来,直起身子,怔怔地思忖:“那会是一种什么样的形态?完全想象不出来啊。”

“比如,当我们的算法和大数据再积累一年半载,略有小成。我们可以在过渡阶段弄一个未读池的概念。比如一个用户在初见上订阅了好多公众号、关注了很多明星,然后每天刷出来的动态有几百条,他们根本看不完。

这时候,咱从目前的‘猜用户喜好’推送排列,改为设置一个‘未读池’,用户觉得闲着无聊,主动点击一下‘刷新’,就给他刷出几十条实际上我们用推送人工智能筛选过权重、揣摩过他喜好的内容来。因为用户主动点击了这一下‘刷新’,所以他们不会有被人揣摩的恶劣体验,只会觉得这些东西是他主动去拿的——但实际上还是我们揣摩后送的。

再往后,等这个能力彻底大成,我们就可以把所有有行迹的推送渠道和推荐位统统干掉——只留下一个‘初秘’人工智能助手。等用户对着自己的手机喊一句‘我想看都市文’、‘现在的电影无聊死了’,就揣摩出对方的心意,然后给他一些算法认为他想要的——这种时候,用户的体验完全是一个主人在使唤一个机器人小秘,怎么还可能存在‘用户体验不爽’的问题呢?”

“这都行?嘶——这么一看,好像还真是什么都解决了诶。”

陆文君略微脑补了一下,一想到初音未来可以做到让一个软糯的语音助手发出女声,在‘狗吸金萨马’发出命令后立刻送上他想要的东西时,谁都扛不住这种服务啊。

“可是……初秘能够做到这个功能么?以前我们训练初秘,和苹果训练siri,不都是靠‘统计最高频次的几个回答,选出最有可能优选的标准答案’来训练的么?

但是每个人的偏好,是众口难调的啊,靠对大多数人的选择进行统计、给出概率最大的结果,完全做不到你刚才说的目标吧?”

举报本章错误( 无需登录 )