日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

为什么不要向AI聊天机器人咨询健康问题?

發布時間:2023/12/19 综合教程 17 生活家
生活随笔 收集整理的這篇文章主要介紹了 为什么不要向AI聊天机器人咨询健康问题? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

4月28日消息,自從OpenAI、微軟和谷歌推出了AI聊天機器人,許多人開始嘗試一種新的互聯網搜索方式:與一個模型進行對話,而它從整個網絡上學到的知識。

專家表示,鑒于之前我們傾向于通過搜索引擎查詢健康問題,我們也不可避免地會向ChatGPT、Bing和Bard等工具提問。然而,這些工具會犯一些我們熟悉的隱私錯誤,并且還會創造一些新的錯誤?!跋M者至少應該以懷疑的態度看待這些工具,因為和其他許多流行技術一樣,它們都受到了廣告和營銷力量的影響?!?/p>

在向人工智能聊天機器人分享敏感健康信息或任何其他秘密之前,有幾個需要知道的事情:

1、這些機器人會保存我的聊天記錄嗎?

沒錯,ChatGPT、Bing和Bard都會存儲用戶的輸入。不過,谷歌Bard正在對少量用戶進行測試,它提供了一個設置,讓用戶可以要求該公司停止保存查詢記錄,并取消與用戶的谷歌賬戶相關聯。只需點擊左上角的菜單欄并關閉“Bard Activity”即可。

而用戶也可以在OpenAI的設置中關閉“聊天歷史記錄和訓練”選項,從而限制聊天記錄的保存時間。公司表示,關閉后將僅保存聊天記錄30天,并避免將其用于人工智能的訓練。

2、這些公司拿我們的聊天記錄干什么?

這些公司利用用戶的查詢和回復來訓練人工智能模型,以提供更好的答案。但是,這些聊天記錄的用途不止于此。谷歌和微軟在推出人工智能聊天機器人時,在隱私政策中也留出了使用用戶聊天日志進行廣告的空間。這就意味著,如果你提問矯形鞋相關的問題,將來你可能會看到這方面的廣告。

這樣的廣告可能對用戶的影響不大。但是,當健康問題和數字廣告交叉時,就可能會帶來傷害。此前的報道顯示,包括WebMD和Drugs.com在內的許多癥狀檢查站點與外部廣告公司分享了用戶潛在的敏感健康問題,如抑郁癥或艾滋病毒,以及用戶標識符。

此外,數據經紀人也會向買家出售大量的人員名單和他們的健康擔憂清單,這些買家可能包括政府或保險公司。有些患有慢性疾病的人報告說,他們在互聯網上看到了令人不安的定向廣告。

鑒于此,用戶應該考慮他們有多大程度上相信這些公司會保護他們的數據,以避免侵入性廣告,并決定與谷歌或微軟分享多少健康信息。

OpenAI則表示,公司只會保存用戶的搜索結果來訓練和改進其模型。OpenAI發言人表示,該公司不會利用用戶與聊天機器人的互動來建立用戶檔案或打廣告,未來也沒有這樣的計劃。

隱私非營利組織電子前沿基金會的社區組織副主任羅里·米爾(Rory Mir)表示,有些人可能不希望自己的數據被用于人工智能培訓,而不管這些公司在廣告方面采取什么樣的立場。他補充說:“在某個時候,他們掌握的數據可能會落入另一家你不那么信任的公司手中?!?/p>

3、會有人查看我的聊天記錄嗎?

有時候,會有人工審查員參與審核聊天機器人的回答。這意味著,他們也會看到用戶查詢的問題。例如,谷歌保存了很多聊天記錄以供審查和注釋,最長可保存四年。盡管這些審查員無法查看用戶的谷歌賬戶,但是谷歌還是建議用戶在聊天中不要分享任何個人身份信息,包括姓名、地址或其他可以識別用戶或其他人的細節。

4、我的聊天記錄會被保存多長時間?

米爾表示:“公司收集我們的數據并長期保存可能會帶來隱私和安全風險,這些公司可能會被黑客入侵,或者與不值得信任的商業伙伴分享這些數據?!?/p>

OpenAI的隱私政策顯示,該公司保存用戶數據的時間為“僅限于我們為用戶提供服務或其他合法商業目的所需的時間”。這可能是無限期的,該公司發言人拒絕具體說明。

另外,谷歌和微軟也會保留用戶的數據,直到用戶請求刪除。

5、我能相信機器人提供的健康信息嗎?

美國約翰·霍普金斯大學商學院人工智能對醫療保健影響的運營管理和商業分析教授戴廷龍表示,互聯網就像是健康信息的聚集袋,有些信息有用,有些則不是很有用。在篩選垃圾信息方面,像ChatGPT這樣的大型語言模型可能比常規搜索引擎做得更好。

例如,ChatGPT可能比Google Scholar更好地幫助某人找到與他們特定癥狀或情況相關的研究。在戴廷龍教授的研究中,他正在檢查聊天機器人是否能夠正確診斷醫生未能發現的罕見疾病。

但戴廷龍教授指出,這并不意味著我們應該依賴聊天機器人提供準確的健康指導。他說,這些模型已經被證明可以編造信息,并將其作為事實呈現出來,而它們的錯誤答案可能讓人覺得相當可信。

此外,人工智能模型還通過不可靠的來源獲得信息。比如,當用戶詢問為什么總是感到疲憊不堪時,Bard可能會提供許多可能的答案,甚至引用一個關于小西施犬性情的網站。再加上人類傾向于過于信任聊天機器人的推薦,這很可能造成大問題。

戴廷龍教授警告稱:“雖然這項技術的表現令人印象深刻,但現在它就像是嬰兒,或者可能像十幾歲的孩子。人們只是在測試它,而當人們開始依賴它時,它就會變得非常危險?!?/p>

6、如何查詢健康信息才能確保安全?

由于獲得醫療保健的機會參差不齊或費用高昂,并不是每個人在感覺不舒服時都能去看醫生。如果你不想讓自己的健康問題被保存在某個公司的服務器上,或者成為廣告的素材,那么可以使用隱私保護瀏覽器。

在注冊任何基于人工智能聊天的健康服務(比如治療機器人)之前,首先要了解這項技術的局限性,并檢查該公司的隱私政策,看看它是否使用數據來“改善服務”,或者與未透露身份的“供應商”或“商業合作伙伴”共享數據。這兩個詞通常都是廣告商的委婉說法。(小小)

總結

以上是生活随笔為你收集整理的为什么不要向AI聊天机器人咨询健康问题?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。