Researchers have developed the a3 framework and a3-python to automate the creation of advanced program verification engines by combining LLM-driven code synthesis with formal mathematical methods. This approach aims to bridge the gap between complex mainstream languages like Python and rigorous formal verification tools.
然而,許多資深開發者與研究員對此持保留態度,主要的爭議點在於 LLM 生成內容的正確性與可靠性。部分評論指出,雖然文章提到 AI 發現了基於多項式與代數證明的機制,但這些理論本質上是已存在數十年的學術成果,AI 的角色更像是高效的文獻檢索與整合者,而非真正的理論創新者。此外,有人擔心過度依賴 AI 生成的驗證邏輯可能會引入難以察覺的邏輯漏洞,如果驗證器本身的正確性無法被保證,那麼它所產出的「證明」價值將大打折扣。
最後,社群也對 AI 在此過程中的「幻覺」問題表示關注。文中提到 AI 曾試圖將既有理論包裝成自己的發明,這引發了關於學術誠信與 AI 輔助研究透明度的討論。整體而言,社群共識傾向於認為這是一個極具潛力的研究方向,將 LLM 的生成能力與 SMT 求解器(如 Z3)的嚴謹性結合,確實為解決主流程式語言的驗證難題開闢了一條新路徑,但仍需更多時間來驗證其長期穩定性與泛化能力。