图灵奖得主约瑟夫希发基思在2024世界顶尖科学家智能科学大会上强调,讨论AI风险时需要区分人为因素和技术风险。
约瑟夫希发基思指出,人为风险主要体现在算法需求不完整、设计缺陷以及外部环境威胁等方面。而技术风险则分为两类:一类是用户提出的需求可能不合法或不道德;另一类是用户可能会将系统用于高风险场景。希发基思认为,应针对这两种风险分别制定相应的应对措施。
希发基思强调,法规对于防范这些风险至关重要。他认为,当前许多问题的产生是因为利益相关者未能明确界定需求。技术也可以在此过程中起到一定的规范作用。
希发基思在接受采访时提到,尽管人工智能领域取得了显著进展,但目前的应用仍局限于弱智能范畴,主要集中在问答应用上。他指出,许多人虽然热衷于讨论AI,但对于智能的本质及其实际应用却缺乏清晰的认识。
康奈尔大学教授乔恩克莱因伯格也在论坛上发言,指出了人类偏见对算法产生的影响。他认为,由于经济激励,人们在设计算法时容易忽视潜在的偏见问题。此外,人类在面对超越自身能力的AI系统时,认知上的不足也会导致各种问题。克莱因伯格建议,在设计算法时,既要追求其强大功能,又要避免失控的风险。
希发基思和克莱因伯格的观点强调了在AI发展过程中,必须关注人为因素和技术因素所带来的风险,并采取有效措施加以应对。这不仅有助于规范AI的应用,也有助于更好地利用其潜力造福人类社会。