首先,我阅读了这篇文章,但我想扩展一下。总结如下:
1. 在设计安全关键系统时,设计师必须评估一些指标以确保系统按预期工作。这有点像数学证明,复杂度足够低以便人类能够理解。这涉及责任、可靠性、审计等方面。
2. 另一方面,目前的人工智能是一个黑盒子,看起来效果非常好,但大多数情况下我们没有其正确性的证明(主要是因为盒子里发生的事情过于复杂,无法进行分析),更像是一种统计上的确定性:我们训练了系统,系统在所有测试中表现良好。
那么,有一些问题吗?
Q1. 这两个模糊的想法现在是否有意义?
Q2. 是否可以将AI用于安全关键系统并确信其性能?我们能否确定AI的确定性行为?有任何参考资料吗?
Q3. 我猜已经有一些公司在汽车领域销售基于AI的安全关键系统。他们如何管理为如此严格的市场认证其产品?
关于Q1:感谢Peter的指导,我意识到,例如对于汽车领域,没有关于总体确定性的要求。ASIL D级别,汽车系统最严格的级别,仅需要对故障概率设定上限。因此,其他ISO26262标准和级别也是如此。我会进一步精化问题:
Q1. 在任何领域/领域中,在系统设计的任何级别/子组件中,是否存在要求“总体”确定性的安全标准?
关于Q2:即使不需要总体确定性,这个问题仍然存在。
关于Q3:现在我明白他们将如何实现认证。无论如何,任何参考资料都将非常受欢迎。
1. 在设计安全关键系统时,设计师必须评估一些指标以确保系统按预期工作。这有点像数学证明,复杂度足够低以便人类能够理解。这涉及责任、可靠性、审计等方面。
2. 另一方面,目前的人工智能是一个黑盒子,看起来效果非常好,但大多数情况下我们没有其正确性的证明(主要是因为盒子里发生的事情过于复杂,无法进行分析),更像是一种统计上的确定性:我们训练了系统,系统在所有测试中表现良好。
那么,有一些问题吗?
Q1. 这两个模糊的想法现在是否有意义?
Q2. 是否可以将AI用于安全关键系统并确信其性能?我们能否确定AI的确定性行为?有任何参考资料吗?
Q3. 我猜已经有一些公司在汽车领域销售基于AI的安全关键系统。他们如何管理为如此严格的市场认证其产品?
关于Q1:感谢Peter的指导,我意识到,例如对于汽车领域,没有关于总体确定性的要求。ASIL D级别,汽车系统最严格的级别,仅需要对故障概率设定上限。因此,其他ISO26262标准和级别也是如此。我会进一步精化问题:
Q1. 在任何领域/领域中,在系统设计的任何级别/子组件中,是否存在要求“总体”确定性的安全标准?
关于Q2:即使不需要总体确定性,这个问题仍然存在。
关于Q3:现在我明白他们将如何实现认证。无论如何,任何参考资料都将非常受欢迎。