苹果提前剧透!眼动追踪、音乐触觉、人声快捷键等新功能即将上线
当地时间周三早晨,苹果公司在全球无障碍宣传日(5月16日)前提前剧透了一批即将在“今年晚些时候”——也就是iOS 18这一批新系统发布时亮相的新辅助功能。
根据苹果的公告,这一批功能包括让用户单单使用眼睛就能控制iPhone和iPad、使用触觉引擎感受音乐、通过车辆运动提示减少晕车现象、设定语音快捷方式,同时“个人声音”功能也将支持普通话等。
苹果披露,在新功能上线后,用户只需要一双眼睛就能操作iPhone和iPad。
由人工智能支持的眼动追踪为用户提供了只需双眼即可使用iPad和iPhone的内置选项。眼动追踪是专为残障用户设计的功能,只需几秒钟即可设置和校准前置摄像头,并通过设备端机器学习功能,将设置和控制此功能的所有数据安全地保存在设备端,不与Apple共享。眼动追踪可在iPadOS和iOS应用程序中运行,不需要额外的硬件或配件。通过眼动追踪,用户可以浏览应用程序的元素,并使用停留控制来激活每个元素,仅通过眼睛访问其他功能,如物理按钮、滑动和其他手势。
音乐触觉是让听力受损用户在iPhone上体验音乐的一种全新方式。打开此辅助功能后,iPhone中的触感引擎会随着音乐播放而体现轻拍、织体和微妙振动。音乐触觉功能适用于Apple Music中的数百万首歌曲,并将作为API提供给开发者,使更多用户能够体验他们App中的音乐。
iPhone和iPad用户可以通过人声快捷键,为Siri添加自定义话语,从而启动快捷方式并完成复杂任务。另一个新功能,倾听非典型语音(Listen for Atypical Speech),提供了增强语音识别范围的选项。倾听非典型语音功能使用设备端机器学习来识别用户的语音模式。这些功能专为因脑性麻痹、肌萎缩侧索硬化症(ALS)或中风等而影响语言功能的用户设计,基于iOS 17中引入的功能,为无法言语或面临言语能力风险的用户提供了新的个性化和控制功能。
在iPhone 15 Pro上,屏幕上显示“设置人声快捷键”,并提示用户选择一个动作并录制一个短语,教会iPhone识别他们的声音。
在iPhone 15 Pro上,屏幕上显示“最后一次说‘圆环’”,并提示用户通过重复三次来教会iPhone识别这个短语。
在iPhone 15 Pro上,用户收到了来自人声快捷键的提醒,内容是“打开活动圆环”。
另外一个比较实用的功能,是苹果Vision Pro即将上线的全系统“实时字幕”功能,可以将现场对话和app音频里的的交流实时转化为字幕。Vision Pro还将增加在沉浸式视频期间使用窗口栏移动字幕的功能。
苹果也披露,视觉辅助功能的更新将包括添加“减少透明度”“智能反转”和“减弱闪烁灯光”功能,以便低视力或希望避免强光和频繁闪烁的用户使用。
接下来苹果也会给iPhone和iPad推出一款旨在减缓晕车状况的新功能。
苹果表示,晕车通常是由于人们所见与实际感受间的感官冲突引起,所以通过在屏幕边缘展示一些运动的点,可以减少感官冲突,同时避免影响文字显示。苹果设备能够自动识别用户是否在运动的车里,同时这项功能也能通过控制中心打开和关闭。
更多功能:
对于视力受损的用户,旁白将加入新的语音、灵活的音量转子、自定义音量控制以及在Mac上自定旁白键盘快捷键的功能。
放大器将提供新的阅读模式,并通过操作按钮轻松启动检测模式。
盲文用户可以用新的方式来启动和保持盲文屏幕输入,提升控制和文本编辑速度;盲文屏幕输入现支持日语;支持使用盲文键盘输入多行盲文,以及选择不同的输入和输出方式。
对于低视力用户,悬停输入将放大在文本框中输入的文字,并以用户首选的字体和颜色显示。
对于有失去言语能力风险的用户,个人声音将推出普通话版本。发音或阅读完整句子有困难的用户现可使用缩短的句子来创建个人声音。
对于言语障碍的用户,实时语音将包括分类以及与实时字幕同时兼容的功能。
对于残障用户,虚拟触控板的辅助触控功能可让用户将屏幕上的一个小区域作为可调整大小的触控板,从而控制设备。
切换控制现在能让iPhone和iPad的摄像头识别手指点击手势,以此作为开关。
语音控制将支持自定义词汇和复杂单词。
在iPhone 15 Pro上展示放大器中的新阅读模式。
(每日经济新闻)