開發(fā)者調查:使用量增加降低人工智能編碼工具的信任度
人工智能工具被軟件開發(fā)人員廣泛使用,但這些開發(fā)人員及其經理仍在努力弄清楚如何最好地使用這些工具,并在此過程中出現(xiàn)了成長的煩惱。
這是社區(qū)和信息中心 StackOverflow 對 49,000 名專業(yè)開發(fā)人員的最新調查得出的結論,StackOverflow 本身也受到了將大型語言模型 (LLM) 添加到開發(fā)人員工作流程的嚴重影響。
調查發(fā)現(xiàn),到 2025 年,五分之四的開發(fā)人員將在他們的工作流程中使用人工智能工具——這一比例近年來一直在快速增長。也就是說,“對人工智能準確性的信任度已從前幾年的 40% 下降到今年的 29%。
這兩個指標之間的差異說明了 GitHub Copilot 或 Cursor 等人工智能工具對該行業(yè)不斷發(fā)展且復雜的影響。開發(fā)人員之間關于這些工具是否或應該有用的爭論相對較少,但人們仍在弄清楚什么是最好的應用程序(和限制)。
當被問及他們對人工智能工具的最大挫敗感是什么時,45% 的受訪者表示他們正在為“幾乎正確但不完全正確的人工智能解決方案”而苦苦掙扎——這是報告的最大問題。這是因為與明顯錯誤的輸出不同,這些輸出可能會引入陰險的錯誤或其他難以立即識別且相對耗時的問題,特別是對于初級開發(fā)人員來說,由于他們依賴人工智能,他們帶著虛假的信心來處理工作。
因此,調查中超過三分之一的開發(fā)人員“報告說,他們對 Stack Overflow 的一些訪問是由于與人工智能相關的問題造成的”。也就是說,他們從基于 LLM 的工具中接受的代碼建議會帶來問題,然后他們不得不求助于其他人來解決。
即使最近通過推理優(yōu)化模型取得了重大改進,這種接近但不完全不可靠的問題也不太可能完全消失;這是預測技術工作原理的特有特征。
這就是為什么 72% 的調查參與者表示“氛圍編碼”不是他們專業(yè)工作的一部分;有些人認為它太不可靠,并且可能會引入不適合生產的難以調試的問題。
為什么開發(fā)人員仍然使用這些工具
那么,鑒于所有這些懷疑和挫敗感,為什么開發(fā)人員仍在使用這些工具呢?好吧,在某些情況下,他們的經理試圖強迫他們這樣做。但更常見的是,這是因為這些工具仍然很明顯有用——重要的是不要誤用它們。
重要的是,經理和個人貢獻者將人工智能工具與強大的培訓一起引入工作流程,以確保對最佳實踐的深刻理解,這樣這些工具就不會被濫用,從而產生的問題多于解決的問題,或者浪費的時間多于節(jié)省的時間。
開發(fā)人員需要減少對 Copilot 自動完成建議之類的東西的信任,更多地將它們視為一個起點,而不是僅僅按下 Tab 鍵并繼續(xù)前進。像這樣的工具最適合一種有限的結對編程關系:要求 LLM 發(fā)現(xiàn)問題或提出你仔細考慮的更優(yōu)雅的解決方案,而不是建議你從表面上看的完整方法。
它們也可用于學習。通過不斷熟悉新語言、框架或方法來始終學習的機會是吸引一些人從事這項工作的原因之一,而法學碩士可以通過更有針對性的方式回答問題來減少該過程中的摩擦,而不是通過通常不完整的技術文檔進行費力的搜索——這正是人們過去使用 StackOverflow 的那種事情。
“盡管我們看到流量下降,但絕沒有某些人所說的那么劇烈,”StackOverflow 首席產品和技術官 Jody Bailey 在對 VentureBeat 的評論中說。StackOverflow 計劃將其部分資源用于擴大人工智能工具素養(yǎng)和促進社區(qū)討論,以幫助解決涉及這些工具的工作流程特有的問題。
評論