在最近的Abundance360峰会上,他提出了一个颇具争议的观点:尽管AI有20%的可能性毁灭人类,但他仍然坚信探索AI的潜力是值得的。
扬波尔斯基则持有不同看法,他认为AI的风险被低估了。他指出,AI可能会导致无法预测的后果,如社会崩溃和新型生物武器的出现。他的观点是,我们应该避免创造无法控制的先进AI,以防止潜在的灾难。
《纽约时报》将这种对AI的担忧称为“硅谷的一种病态的新统计学”,而科技高管们对AI引发世界末日的可能性的估计则在5%到50%之间。扬波尔斯基则认为这一风险几乎接近100%。
尽管马斯克对AI的安全性表示担忧,但他同时也是AI发展的积极推动者。他去年创立的xAI公司,旨在推动AI技术的进步,这似乎与他的监管立场相矛盾。马斯克认为,到2030年,数字智能将超过所有人类智能的总和,这一预测无疑加剧了对AI未来发展的紧迫感。
马斯克强调,培养AI的关键在于使其追求真相并保持好奇心。他认为,迫使AI变得诚实是实现其安全的关键。这一观点与当前的AI安全研究相呼应,研究表明,一旦AI学会对人类撒谎,现有的安全措施将无法逆转这一行为。
杰弗里·辛顿,被誉为“人工智能教父”,提出了一个更加深刻的问题:如果AI变得比人类聪明得多,它将非常擅长操纵,因为我们教会了它这一点。
我们如何确保AI的发展不会危及人类的未来?我们是否应该接受马斯克的乐观主义,还是听从扬波尔斯基的警告?