最近,我把Pixel 10 Pro还有Galaxy S26 Ultra拿来测试了一下Gemini新出的任务自动化功能,这是它头一回在应用程序里头代替用户干活。虽然眼下只支持外卖和网约车服务,但这尝试确实挺有意思。虽然现在速度比不上手动操作,大概得九分钟才能把单订下来,但设计初衷是让它在后台跑,咱们干别的事儿不耽误。我看着它在菜单里找选项时慢腾腾的样子挺焦虑,所以效率还得再提一提。好在准确性还不错,最后一步会等你确认才去执行。这五天测试下来都没出过错。最让我眼前一亮的是它能看懂自然语言,我在日历里留了条飞旧金山的航班信息,直接跟它说“安排Uber送我去机场”,它就利索地找到了航班并算出合适的出发时间。这就比以前那种僵硬的助手强多了。 不过我也发现了问题。在UberEats上看它操作的时候就很明显,这些软件本来就是给人设计的,里面有好多乱七八糟的图片广告对AI来说没啥用。谷歌Android的负责人Sameer Samat说他们现在是在用推理的办法在干活。虽然能用但显得笨笨的。谷歌正在通过MCP这种方法改进这事儿。虽然现在用起来还慢腾腾的不够灵活,但这绝对是AI助手往智能化发展的第一步。以后技术变厉害了,体验肯定会更好。 问:Gemini现在能做点啥? 答:现在只能做订餐和叫车这两样。比如在UberEats上下单或者用Uber约车,还能根据你手机里的日历信息把出发时间给你算好。 问:用它订餐到底得多慢? 答:大概九分钟左右。虽说比手动慢不少,但你可以盯着别的事儿去,它就在后台默默地办着呢。 问:这玩意儿真聪明吗? 答:挺聪明的。它能看懂你说的话和日历里的内容,做出合理的安排。就连菜单上那些复杂选项它也能看懂,感觉挺懂你心思的。 总之,Gemini这次试水虽然还有缺点,但潜力很大。以后咱们生活里肯定少不了这种厉害的AI助手了。