生成式AI已經激發了全世界的想象力。過去,計算機在許多方面都超越了人類,但大多數情況下,它們擅長的是重復性和確定性的任務。程序員編寫的算法旨在反復且準確地執行任務,除非出現“bug”。當出現問題時,技術熟練的人類會修正計算機程序中的bug。然而,隨著ChatGPT等生成式AI工具的出現,這種范式正在發生轉變,因為計算機似乎已經實現了從確定性能力到創造性思維的飛躍。
生成式AI以 文本API、語音API 或 圖像API 形式產生的輸出可以取悅人類并增強我們的思考,但如果被濫用,它也可能造成破壞。我們目前還不知道這方面的極限在哪里。然而,我們已經深入思考了生成式AI對人類-計算機交互、軟件開發和API的深遠影響。
AI機器人將有助于推動人機交互的發展。與我們目前廣泛使用的Alexa和Siri等工具相比,當前的大型語言模型(LLMs)所能實現的功能顯得相形見絀。《紐約時報》概述了人們正在利用這些功能的一些非常有趣的方式。隨著這些機器人的不斷進步,我們可以想象會出現更多復雜的應用場景。這些新的應用場景將催生新的習慣,從而推動新一輪的技術進步。
在我看來,這些與計算機互動的新方式將從根本上改變我們與軟件的關系。就像在個人計算、互聯網瀏覽器和我們可以隨身攜帶的移動設備方面,圖形用戶界面(GUI)的飛躍一樣,由生成式AI驅動的交互將使我們重新思考未來軟件的開發方式。
生成式AI不僅將改變我們與技術的交互方式,還將促使我們重新構想軟件的構建和設計原則,以適應更加智能、靈活和個性化的需求。這將是一個持續演進的過程,隨著技術的不斷進步,我們將看到更多創新性的應用場景和解決方案不斷涌現。
展望未來,所有的軟件界面都將配備具有創造性的助手,它們將為我們獲取信息和數據、執行操作,并輔助我們完成各種任務。然而,這些機器人并不僅限于聊天界面。我相信它們將深度嵌入人類已經與計算機進行交互的現有工作流程中。例如,機器人將開始協助完成繁重的用戶界面和數據任務,通過語音進行交互,當然也包括通過聊天機制進行交互。
聊天機器人示例:聊天機器人服務-Chatbase 、AI 聊天機器人-sendbird 、AI聊天機器人-Chatling 等
我認為具有巨大潛力的一個領域是簡化復雜的圖形用戶界面(GUI)。對于復雜的任務,圖形用戶界面往往變得難以使用,各種操作隱藏在成排的按鈕、菜單、快捷鍵和程序后面。人們需要多年的訓練才能熟練掌握這些界面,即便如此,大多數人仍在使用時感到困難重重。而基于領域理解訓練的生成式AI則有可能簡化這些體驗。生成式AI能夠理解用戶的意圖和上下文,從而提供更加直觀、簡潔和高效的交互方式,使用戶能夠更輕松地完成復雜的任務。
然而,這些機器人只能通過API執行“操作”。API是驅動AI“思考”的手和腳。API將這些機器人與數據以及動詞和名詞連接起來,以便在現實世界中完成任務。其中一些機器人可能是完全自主的。Auto-GPT是一個最近越來越受歡迎的實驗項目,它可以將一系列操作串聯起來,以實現人類設定的目標。如果這些機器人繼續受到歡迎,那么確保它們調用的API經過驗證和測試以產生正確的結果將變得至關重要。到目前為止,我們主要設計的是供人類使用的應用程序的API,但為機器設計API將成為一個日益重要的領域。
如果你是某個組織的領導者,那么這對你意味著什么呢?如果你的組織沒有API或API設計得很差,那么你在這些機器人眼中就是隱形的。這意味著你的組織將無法利用這些新興技術來提高效率、自動化任務或創新產品和服務。因此,你需要考慮投資于API的設計和開發,以確保你的組織能夠跟上技術發展的步伐,并與這些機器人進行交互。這可能涉及到重新評估你的業務流程、數據架構和軟件開發實踐,以確保它們能夠支持API的集成和使用。
我們認為,為了參與軟件世界中的價值交換,公司需要加倍努力實施其以API為首的戰略。公司已經利用多種渠道與消費者進行互動;這是他們利用已建立的能力的另一種方式。
到目前為止,供消費者使用的免費大型語言模型(LLM)都是基于公開可用的數據源進行訓練的,這意味著大多數LLM將很快被商品化。能夠創建、收集或驗證高價值數據的組織和個人在這一等式的數據端占據有利地位(例如,彭博社最近開發了一個利用其專有金融數據的生成式AI模型)。
大型語言模型API示例:360多模態大語言模型 、百度文心一言大模型 、金融語言模型ntropy 、Baichuan文本生成模型 、騰訊混元大模型等
如果公司打算將數據變現,就需要為正確的用例和錯誤的用例制定明確的指導方針。這需要在新的世界中設計和開發適當的API來訪問數據。監管指南也將發揮巨大作用,但需要一段時間才能跟上。與此同時,公司還需要迎頭趕上,以保護其獲取的數據。這意味著公司需要投資于數據安全和隱私保護,以確保其數據在傳輸、存儲和處理過程中不被未經授權的訪問、使用或泄露。此外,公司還需要確保其數據使用符合相關法規和行業標準,以避免潛在的法律風險和聲譽損失。
LLM(大型語言模型)不能創造新的事實,但它們很擅長編造事實(即產生幻覺)。這就是人類將發揮關鍵作用的地方。無論是驗證文本、驗證代碼,還是“挑選”正確的句子,人類的工作將繼續是“調試”輸出,而不是調試輸入。輸入仍然是輸入到模型中的數據,盡管可能有辦法編寫更好的提示,但目前(據我所知)還沒有辦法知道為什么生成式AI的黑盒子會輸出它所輸出的內容。這是這些LLM的一個關鍵局限性。關于數據的來源、應該是什么正確的來源等問題,目前各個論壇都在進行熱烈的討論。
人類和人類社會定義了什么是有價值的。并非所有由生成式AI創作的詩歌和書籍都有價值。雖然看到計算機生成這些作品很迷人,但這些作品的價值最終將取決于它們所獲得的關注度。不幸的是,這里存在大量濫用技術的可能性,因為這些工具有可能無意中生成與真實事實難以區分的虛假信息。
我相信,通過可信來源的驗證和人類協作將在解決這些挑戰中發揮關鍵作用。我們需要建立機制來驗證生成式AI輸出的真實性和準確性,同時也需要教育公眾如何識別虛假信息,以避免技術被濫用。
AI生成檢測API示例:抄襲檢測器 API-Copyleaks 、Winston-AI探測器 、GPTZero-AI探測器 、深度偽造語音檢測 、AI內容檢測服務-Content Detector
API調試和API測試將變得更加重要,以確保正確性。這些過程將通過生成式AI得到增強,從而減少開發人員獲得生產力的時間。
冪簡集成是國內領先的API集成管理平臺,專注于為開發者提供全面、高效、易用的API集成解決方案。冪簡API平臺可以通過以下兩種方式找到所需API:通過關鍵詞搜索API(例如,輸入’IP地址定位‘這類品類詞,更容易找到結果)、或者從API Hub分類頁進入尋找。
此外,冪簡集成博客會編寫API入門指南、多語言API對接指南、API測評等維度的文章,讓開發者快速使用目標API。
原文鏈接:https://blog.postman.com/generative-ai-and-the-impact-on-apis-and-software-development/