GPT-4刚发布就有APP接入,上传照片视频一键解读(图)

6Park 科技 1 year

GPT-4刚发布,就已经有手机应用接入了!

只需要上传图像,再用语音提出需求,GPT-4就能帮助视障人士“看清”眼前的世界。

随时随地,实时解读,就像聊天对话一样自然。

例如想要换装,却不知道手里的衣服是什么颜色:



只需要拍照上传给GPT-4,它很快就能将衣服纹理描述出来,材质、颜色和形状一清二楚:



△翻译by有道

在此之前,视障人士除了用手触摸以外,辨别物体往往需要依靠身边的人或是志愿者的帮助。

有网友看到后赞叹:这是目前见过最令人惊叹的GPT-4应用之一!



所以,加入了图像理解功能的GPT-4,究竟展现出了哪些能力?

基于GPT-4读图能力打造这个基于GPT-4的新功能名叫Virtual Volunteer,来自应用Be My Eyes。

目前来看,包括问路、导航、读取菜单、搜索等功能,接入GPT-4的Virtual Volunteer都能很好地帮用户完成。

例如问路。



只需要拍一张所在地点的照片,再通过语音询问GPT-4如何到达指定地点,它就会输出一条完整路线图,“读”给用户听:



△翻译by有道

又例如读图翻译。



只需要给GPT-4看眼物品描述、甚至只是物体形状,它就能搜索并输出这个产品的功能、具体说明和使用方法。



△翻译by有道

再例如公众场合导航。



想去健身房、却无法掌握空闲的器材位置,只需要拍摄所在场景照片,GPT-4就能指引你走到无人的器材面前。



当然,还有点菜、使用自动贩卖机买饮料、搜索某种植物的名字、给出时装建议……



只要将需求告诉GPT-4,它就能帮助视障人士解决对应的问题。

不过,目前这一功能还在测试中,苹果商店可以加入等待列表,至于安卓版也快来了。



搭载它的应用Be My Eyes,是一个为盲人开发的公益应用。

它最早是一个2012年成立的互助社区,并于2015年上线iOS版本应用,随后又上线了安卓版应用。

这个应用分为志愿者和盲人两个群体,志愿者会接受盲人传过来的照片或视频,通过语音沟通(打电话)帮助他们解决困难,目前已经有接近45w+视障人士和630w+志愿者使用。



如果成为一名志愿者,则只需要保持在线,确保随时可以接听到视障人士的电话。

如果是视障人士使用,则可以在需要帮助时拨打志愿者电话,或是寻求一些专业人士的帮助:



现在加入Virtual Volunteer之后,盲人也可以呼叫“虚拟志愿者”GPT-4的帮助,不用担心深夜无人应答的问题。

官方还玩了个谐音梗,AI→Eyes,“让AI成为你的眼睛”:



还当起美版知乎问答bot当然,除了Be My Eyes应用以外,不少其他APP也在争先恐后接入GPT-4。

例如,在美版知乎Quora出的Poe上,现在已经可以和GPT-4聊天(限免一句话):



又像AI律师软件DoNotPay,同样已经接入了GPT-4,并计划用它来推出“一键诉讼”服务。



基于这个服务,你看不顺眼的电话诈骗,一键就能举报投诉。

如果接到电话诈骗,只需要点击一个按钮,对应的电话内容就会被全程录音,并生成1000字的诉讼内容,索赔1500美元的金额。(不过目前还只有美国地区适用)

值得一提的是,DoNotPay的CEO Joshua Browder表示,他们之前也用GPT-3.5做过类似的功能,但效果不太行,GPT-4则已经能很好地hold住这一要求。



甚至已经有网友尝试用GPT-4来搞药物发现了……



除了上述应用和功能以外,还有网友察觉到了GPT-4开发小游戏的前景。

新的GPT-4似乎在编程靠谱度上也有所提升,无论是在60秒内做一个打乒乓球小游戏:



还是20分钟之内搞出一个完整的贪吃蛇:



都可以说是游刃有余,提出更改需求也可以及时完成,编写的简单程序中基本上没有遇到需要修改的bug。

你还想到了什么GPT-4好玩的应用场景吗?

参考链接:

[1]https://twitter.com/BeMyEyes/status/1635690254689599488

[2]https://twitter.com/skirano/status/1635736107949195278

[3]https://twitter.com/ammaar/status/1635754631228952576

[4]https://www.bemyeyes.com/download

[5]https://twitter.com/jbrowder1/status/1635720431091974157

相关新闻