2024年11月28日,W3C 指针事件工作组发布指针事件第四版(Pointer Events Level 4)规范的首个公开工作草案。该规范对上一版指针事件规范中的功能进行了拓展和修订,其描述了用于处理硬件无关的指针输入的事件和相关接口,这些输入设备包括鼠标、触控笔、触摸屏等。为了与现有的基于鼠标的内容兼容,该规范还描述了一个为其他指针设备类型触发鼠标事件的映射。
更多内容,参见消息原文。
2024年11月28日,W3C 指针事件工作组发布指针事件第四版(Pointer Events Level 4)规范的首个公开工作草案。该规范对上一版指针事件规范中的功能进行了拓展和修订,其描述了用于处理硬件无关的指针输入的事件和相关接口,这些输入设备包括鼠标、触控笔、触摸屏等。为了与现有的基于鼠标的内容兼容,该规范还描述了一个为其他指针设备类型触发鼠标事件的映射。
更多内容,参见消息原文。
2024年11月28日,W3C 去中心化标识符工作组发布去中心化标识符(DID)解析和 DID URL 解引用 v1.0(Decentralized Identifier (DID) Resolution and DID URL Dereferencing v1.0)规范的首个公开工作草案。去中心化标识符(DIDs)是一种用于可验证的“自主控制”数字身份的新型标识符。DIDs 完全由 DID 控制方控制,独立于任何中心化的注册机构、身份提供商或证书颁发机构。DIDs 解析为 DID 文档——用于描述如何使用该特定 DID 的简单文档。
该规范定义了解析 DID 和解引用 DID URL 的算法和指南。
更多内容,参见消息原文。
2024年11月28日,W3C 设备与传感器工作组重新发布振动 API(Vibration API)候选推荐标准,并征集参考实现。该规范定义了一个访问宿主设备振动机制的 API。振动是触感反馈的一种形式。
欢迎于2024年12月26日前通过 GitHub 提供对该规范文档的反馈。
更多内容, 参见消息原文。
2024年11月26日,W3C 设备与传感器工作组发布设备姿态 API(Device Posture API)候选推荐标准,并征集参考实现。该文档定义了一个 API,允许 Web 应用程序请求并接收设备姿态变化的通知。
欢迎2024年12月24日前通过 GitHub 反馈对该文档的意见与建议。
更多内容,参见消息原文。
2024年11月21日,W3C 浏览器测试与工具工作组发布 WebDriver BiDi 首个公开工作草案。该规范定义了双向 WebDriver 协议,一种远程控制用户代理(user agent)的机制。不同于 WebDriver 严格的命令/响应格式,WebDriver BiDi 允许事件从用户代理流向控制软件,从而更好地匹配浏览器 DOM 的事件驱动特性。
更多内容,参见消息原文。
2024年11月19日,W3C 去中心化标识符工作组发布以下四份小组备忘:
2024年11月26日,W3C 的 Web 应用工作组发布以下两份提案推荐标准:
KeyboardEvent
的 key
属性的键属性值,是 UI 事件规范[UIEvents]定义的一部分。更多内容,参见消息原文。
2024年11月12日,W3C 全球会员顾问委员会代表(Advisory Committee 简称 AC)共提名七位候选人参加技术架构组(Technical Architecture Group 简称 TAG)本年度选举。本次选举至2024年12月10日结束,最终将在七位候选人中产生四位成员加入 W3C 技术架构组。参见各位候选人的参选声明。
TAG 是在《W3C 标准流程文档》下运行的专注于 Web 架构管理的特殊小组,其使命包括:
* 为 Web 架构的设计原则寻求共识,且在必要时梳理并澄清这些设计原则;
* 解决提交到 TAG 的与 Web 整体架构相关的问题;
* 帮助协调 W3C 内部及外部跨越不同技术的架构定义与研发。
TAG 的所有成员均以个人身份(而非代表其所在公司或组织)参与 TAG ,并基于各方判断为整个 Web(而非针对任何特定的网络、技术、厂商或用户)寻求最佳解决方案。
更多内容,参见消息原文。
2024年11月7日,W3C 媒体标准工作组发布音频会话(Audio Session)首个公开工作草案。该规范定义了一个 API 接口,用于控制音频的渲染方式以及与其他音频播放应用的交互方式,从而根据不同情境实现更好的音频混合或独占播放,以提供更一致和一体化的跨设备媒体体验。
更多内容,参见消息原文。
2024年11月5日,W3C 音频工作组发布 Web 音频 API 1.1 版规范(Web Audio API 1.1)的首个公开工作草案。该规范描述了一个用于在 Web 应用中处理和合成音频的高级 Web API。其主要模式是音频路由图,其中 AudioNode
对象被连接起来以定义整体音频渲染。实际的处理主要发生在底层实现中(通常是经过优化的汇编语言或 C / C++ 代码),但也支持直接的脚本处理和合成。
文档中的简介部分阐述了制定该规范的原因和目标。
该 API 可以与 Web 平台上的其他 API 和元素结合使用,特别是 XMLHttpRequest [XHR] (使用responseType
和response
属性)。对于游戏和互动应用,预计会结合 canvas
2D [2dcontext] 和 WebGL [WEBGL] 3D 图形 API 以实现更丰富的用户体验。
更多内容,参见消息原文。