ChatGPT的 app 又更新了,其中最有意思的是它能直接和 Siri、快捷指令(Shortcuts)联动了!这样一来,Siri 就能用上 ChatGPT 的能力了。
更多阅读
(相关资料图)
关于 ChatGPT,我们做过一个老少咸宜的小科普,戳此《从 ChatGPT 怎么念,到人们为啥害怕它,这篇文章都讲透! 》可读。
先回答两个问题:
被 ChatGPT“武装”后的 Siri,比原装 Siri 好用在哪? 它和传统搜索引擎相比呢?第一个问题,其实不算是问题,因为关于“Siri 是人工智障”的吐槽大家也听过不少啦……我认真说,因为 Siri 更强调在用户设备端计算,保护个人隐私的同时,也让 它只能做好一些特定任务,比如帮你查天气、定闹钟;但当 Siri 接入 ChatGPT 后,执行任务的角色就被后者接替了,想象空间变得更大了。
至于比用搜索引擎搜索好用在哪里,升级版 Siri 可以直接用语音发问,当你腾不出手,或者不想动的时候,真挺好使的。关键是 对于明确的、具体的发问,它能提炼得更好。
接下来,我先介绍我用升级版 Siri 的几个场景,然后再介绍这么一步步让 ChatGPT 和 Siri 联动起来。
我先来抛砖引玉
我管这个被 ChatGPT 武装起来的升级版 Siri 叫“Smart Siri”,以下同时呈现它和原装 Siri 回答的不同。
教我做菜(在我腾不出手时,Smart Siri 能直接读菜谱):
⚠️ 左图是原装 Siri 的回答,滑动查看 Smart Siri 的回答
帮我挖一首歌的背景故事(即兴的发问,即时的答复):
⚠️ 左图是原装 Siri 的回答,滑动查看 Smart Siri 的回答
用小红书格式写推文(问完,粘贴,发布):
⚠️ 左图是原装 Siri 的回答,滑动查看 Smart Siri 的回答
直接写视频脚本:
⚠️ 左图是原装 Siri 的回答,滑动查看 Smart Siri 的回答
可以看出, Siri 的表现相对刻板,它仅能提供网址以及内容概括,有时会直接告知未找到相关信息,仿佛是被束缚的人工智能。
而在这几个场景里, Smart Siri 则能立即提供不错的回答,简洁明了,看起来的确挺聪明的。
还能是装机大师:
⚠️ 滑动查看 Smart Siri 的回答
问 Siri 我是 ENTJ 人格,学什么合适:
⚠️ 滑动查看 Smart Siri 的回答
除此之外,我还看到了微博博主 @Sunbelife 展示的几个玩法,比如把 iPhone 内的睡眠数据(步数等健康数据)打包,让 ChatGPT 接入分析,最后生成一个“每日健康分析报告”——这个过程还可以是完全自动化的。
作者制图
如果你还想到什么创意玩法,欢迎留言分享!
咋“魔改”Siri?
关于如何下载 ChatGPT 官方 app 以及如何付款的问题,网络上已经有不少教程了,这里不再赘述。
另外,保证你的 iOS 版本是 16.1 及以上,应用才能兼容使用。
然后,直接喊“Hey Siri + Smart Siri”,等待,看到“Yes”后,就能开始问问题了。
ChatGPT app 这次支持 Siri 和快捷指令,相比之前人们“魔改”Siri 的方法要更省时,也更省钱。
之前人们做的快捷指令都是基于 ChatGPT API 接口进行 JSON 格式的发送获取,发送和解析过程都会消耗很长时间,也会占用更多的 ChatGPT key 余额。
之前的版本都是基于 OpenAI 的服务器进行发包收包提取信息的操作|作者制图
现在官方 app 接口可以直接省去用户打包数据提取数据的过程,直接向 app 发送请求并获取有效信息。中间省去了受网络波动、ChatGPT 用户过多、key 余额不足等因素的影响|作者制图
现在,不用懂有门槛的 JSON 语言,不用写代码, 把自己的发问需求细化成小步骤,找到能实现对应任务的 app,像乐高积木一样拼起来就行了。
你还可以把模型换成 GPT 4:打开以上快捷指令后,往下滑找到“Ask ChatGPT”这一模块,选中 GPT-3.5,可替换为 GPT 4(需自行升级 ChatGPT Plus)。
目前 Smart Siri 也有不足: ChatGPT 还无法实现连续对话,不过可以把之前的聊天记录粘贴进当前要问的问题里,也能间接连续问答的效果。
不负责展望一下
对于“ChatGPT + Siri”,除了上文中提到的健康分析场景,我觉得也能用于智能家居和跨境电商分析场景:
作者制图
作者制图
就 Apple CEO 蒂姆·库克近日接受外媒的采访所说,他自己也在用 ChatGPT,“我认为它有一些独特的应用,我们正密切关注它。”
虽说苹果在刚过去的 WWDC(苹果年度开发者大会)上并没有像其他科技巨头那般谈论(甚至吹捧)AI 大模型,但在一些小功能上,也都是基于 AI 去研发和改进的。
比如打字, 在 iOS 17 上,键盘上的错字自动纠正、打字实时预测(机器甚至能准确联想到一整句你最想表达的话)等功能,这些都基于使用 Transformer 语言模型的 ML 程序开发。
按照苹果的习惯,他们一般都先从小的功能和底层的体验尝试创新,再“普及”到其他地方。
不知道会不会有这么一天:Siri 突然就变聪明了。
作者:戴以沫
编辑:biu
如有需要请联系 sns@guokr.com
责任编辑:Rex_12