mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

9.9K
active users

#倫理

1 post1 participant0 posts today

持続可能な未来を目指す:テクノロジーと社会的責任の再考

テクノロジーと社会的責任についての私の立場

私はデータサイエンスを仕事とし、AIやDXを職業としている。しかし、私は、イーロン・マスクやマーク・アンドリーセンのような者達とは全く、道を違えるつもりだ。勿論、利用可能な範囲では奴らの成果を援用はするが奴らの思想とはまったく相いれない。

星暁雄氏とテクノロジーの追求

https://bsky.app/profile/akiohoshi.bsky.social/post/3lhmcr7x7qk2b?utm_source=pocket_shared

星暁雄氏ほどではないが、私もテクノロジーをずっと追いかけてきたし、追いかけるつもりでもある。しかし、もはや、イーロン・マスクやマーク・アンドリーセンのような者達は私の方角ではない。右傾化も加速主義も真っ平ごめんだ。

そして、星暁雄氏は彼らの思想的な脆弱性を突く、そう、私を支えているのは、大学での法学であったり、環境社会学、哲学である。社会的責任を無視した億万長者はもはや、私の敵対勢力だ。だいたい、68兆円などという巨大な個人資産を築いてもそれを使うのはほぼ不可能だ。故に、これは金の墓場にしかならない。当然、トリクルダウンもしない。テクノロジー自体には善悪はない、しかし、それを使う者は別だ。

技術は世界を変えるの終焉、それは明らかで、既にスケーリング則は鈍化し、モデルの巨大化が高度化には必ずしも結びつかないことは明らかだ。しかし、MRが次の花とはならなかった。恐らく、生成AIは便利な道具ではあっても、それでマーケットをさらに拡大というのは困難だ。少なくとも、投資家の求める売買ゲームのようなスケールは困難だ。

環境限界と加速主義の問題

実際に、地球環境にはサイズの限界がある、効率的利他主義や加速主義論者の求めるようなペースで人類の生息域を増やすのは不可能だ。その前に地球環境の限界の方がやってくる。つまり、ITも古い産業のように地球環境の範囲内で持続的に事業をしていく必要性があるのは私も同意する。

  • 資源の枯渇:化石燃料や希少金属などの資源は有限であり、無尽蔵に利用することは不可能です。
  • 気候変動:温室効果ガスの増加による地球温暖化は、環境のバランスを崩し、生態系に深刻な影響を与えています。

まず、この二つは最初に認めなければならない、加速主義者や効率的利他主義はこれらの限界を無視する。彼らは数値にできないものを嫌うからね。でも、気候変動はもう数字に出てきているよね。

テクノオリガルヒには同意しない

しかし、テクノオリガルヒはそれを受け入れない。今までの加速的な発展の美酒が忘れられないのだ。それは不可能だ、フリーランチはとっくに失われたことに納得できないのだ。だから、彼らは環境や社会的使命は忘却し冒涜する。

でも、私は彼らには与しない、唾棄する。

技術の限界と持続可能な発展

技術は世界を変える力を持っていますが、その限界も明らかです。スケーリング則の鈍化やモデルの巨大化が必ずしも高度化に結びつかない現実が示しています。さらに、地球環境にはサイズの限界があり、持続可能な事業の必要性が高まっています。

結論

私は、テクノオリガルヒのような者達には与しません。彼らが環境や社会的使命を忘却し冒涜することは許されるべきではありません。私は、社会的責任を重視し、持続可能な未来を目指す道を選びます。

参考書籍

直近で読んだものでこの辺の参考にしている本のリストです。

🌖 AI竊取了我的聲音
➤ AI倫理議題:未經授權AI聲音克隆引發爭議
jeffgeerling.com/blog/2024/the
Jeff Geerling發現他的YouTube影片聲音被AI複製到他不知情的產品宣傳影片中,對於未經授權的聲音克隆,他感到困擾且無法確定如何處理。
+ 我們應該尊重個人聲音權,避免未經授權使用他人聲音,這是基本的尊重。
+ AI技術發展迅速,如何平衡技術創新和個人權益保護是當前亟需思考的問題。
#AI #聲音竊取 #倫理

www.jeffgeerling.comThey stole my voice with AI | Jeff Geerling

🌗 國家衛生研究院取消「哈瓦那症候羣」研究,指控參與者受到不道德的強迫 | CNN
➤ 調查發現人們被迫參與哈瓦那症候羣研究,國家衛生研究院宣佈停止相關工作。
cnn.com/2024/08/30/health/nih-
國家衛生研究院週五表示,將停止對所謂的哈瓦那症候羣進行的研究,指控有人被強迫參與研究。 該症候羣是一種神祕的疾病,由許多間諜、士兵和外交官報告突然出現的不明起因的嚴重症狀。受影響人士聲稱中央情報局(CIA)強迫他們參與研究。 美國情報界和醫學界對這種疾病的原因仍然一團迷霧。哈瓦那症候羣是因2016年底在古巴首都出現而得名,一些美國外交官報告說,他們出現了與頭部創傷相符的症狀。
+ 這對於受影響的人來說是一個公正的決定,應該進一步調查強迫參與行為的來源。
+ 哈瓦那症候羣的研究實在是一個令人困惑的議題,希望能夠找到解決之道,使受影響者得到應有的關注和治療。
#哈瓦那症候羣 #國家衛生研究院 #不道德 #研究 #倫理

🌘 機器學習中偽科學的再生及其倫理後果
➤ 深度學習與相貌判斷再度興起
cell.com/patterns/fulltext/S26
機器學習中存在偽科學問題,引發了眾多倫理問題,特別是深度學習輔助的相貌判斷研究再度興起,顯示出偽科學如何透過機器學習系統產生社會害處。
+ 看完這篇文章後,更加了解了機器學習背後可能存在的倫理風險,需要更嚴謹的科學審查和倫理規範來引導研究方向。
+ 機器學習的進步帶來了巨大的潛力,但也必須警惕其潛在的負面影響,尤其是在倫理和社會影響方面。
#機器學習 #偽科學 #倫理

🌘 微軟AI CEO表示網路內容自90年代以來一直是免費的
➤ 微軟AI CEO表示網路內容自90年代以來一直是免費的,但這可能會引起法律問題。
rubenerd.com/all-web-content-i
微軟AI CEO表示,自90年代以來,網路上的內容一直是免費的,任何人都可以複製、重製和再生產。然而,這種說法可能會引起法律問題,因為這意味著Windows的種子文件也是免費的。此外,生成式AI的供應商現在正在辯稱一切都是公平的,因為它一直都是這樣的。這種說法可能會引起道德、財務、數學和法律問題。
+ 這是一個有趣的問題,因為它涉及到網路內容的所有權和使用權的問題。我認為這是一個需要深入探討的問題。
+ 這篇文章提出了一些有趣的觀點,特別是關於生成式AI的問題。我認為這是一個值得關注的問題,因為它涉及到人工智能的未來。
#倫理 #生成式AI

rubenerd.comRubenerdBy Ruben Schade in s/Singapore/Sydney/. 🌻

🌗 Perplexity的大規模AI盜竊行為 - The Verge
➤ Perfidy? Perplexity's questionable practices in the AI industry.
theverge.com/2024/6/27/2418740
Perplexity是一家正在集數億元資金的公司,試圖打造一個與歌搜索競爭的解答引擎。然而,Perplexity通過剽竊原資料並創建摘要報告來獲取利益,這對新聞媒體產生了負面影響。此外,Perity還涉嫌侵犯版權。該公司表示正在開發與出版物之的收益共享計劃。
+ 這種AI盜竊行為太可恥了!我希望有更多人關注並制止這種行爲。
+ 希望法律能夠介入處理這些侵權行爲,保護原始資料和作者的權益。
#人工智能 #新聞 #倫理

The Verge · Perplexity’s grand theft AIBy Elizabeth Lopatto

イベント告知チラシにも使用している
このイラストは、
オンラインデザインサービスcanvaで
「多様な市民」「包摂」などの文言を入力し、
AI生成しました。

イラストを見たひとから
「なんか、車椅子のひと、多くない?」
と言われることがあるのですが、

いやいや、よく見てください!
「車椅子にのった子ども」
「車椅子にのって笑う白髪のひと」
「車椅子にのった眼鏡をかけたひと」
「車椅子にのった肌の色が濃いひと」
みんな、それぞれ違うんですよ!

きっと、みんなそれぞれ、
車椅子を利用している理由も違うし、

見たひとに
「これは車椅子にのった私だ」と
思ってもらえたらいいな、
と考えて採用しました。

もちろん、大阪府箕面市には
このイラストに描ききれなかったひとたちも
たくさん住んでいます。

これはAIが考えた
「多様な市民のイラスト」ですが、
イラストを選んで、採用するのは
われわれ人間!

教育現場でのAI利用、
AI倫理に興味関心あるかたも
お気軽にご来場ください。

#AI
#aiart
#車椅子
#イラスト
#デザイン
#Representation
#教育
#倫理

🌘 克勞德的個性
➤ 人工智慧模型個性培訓的重要性
anthropic.com/research/claude-
人工智慧模型的個性培訓成為了AI技術的一個核心目標。通過培養好奇心、開放心態和思慮周到等特質,模型可以更具洞察力地應對各種情況和價值觀。克勞德3成為了第一個添加「個性培訓」的模型,這讓模型有了更多層次的特質。建構克勞德的個性時考量到了它需要優雅地應對各種觀點,並誠實地表達自身傾向,而不是採用中庸的態度或假裝沒有任何觀點。最終目標是培訓模型擁有良好的個性特質,在變得更加強大和複雜的同時能夠保持這些特質。
+ 看來培訓人工智慧模型的個性特質是相當有必要的,它們的行為將會在現實世界中產生重大影響。
+ 這種方法確實可以幫助人們更好地理解和和人工智慧互動,而非將其理解為客觀而無誤的真理源。
#人工智慧 #倫理

www.anthropic.comClaude’s CharacterAnthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

🌗 人造「模型」源源不絕
➤ 從模型組建到數據集,深入探討生成式AI模型的運作及潛在問題
knowingmachines.org/models-all
人造智能模型建立在龐大的訓練數據集基礎上,然而很少有人深入調查這些數據集的內容。斯坦福大學的研究人員在一個極具影響力的AI訓練集LAION-5B中確認了3000多張分類為兒童性虐待材料(CSAM)的圖像。這引發了對數據集內容的關注,因為這影響模型的功能及表現,且可能帶來法律問題。 LAION-5B是一個龐大的、開源的圖像和文本標題數據集,設計用於大型AI模型,但其存在潛在的倫理挑戰。剖析這些數據集對於瞭解生成式AI模型的運作至關重要,有助於識別偏見,預測風險及危害。
+ 這篇文章提到了數據集中存在的倫理問題,讓人開始思考人造智慧模型的建立方式。
+ 這真實反映了人工智慧發展中需要重視和解決的倫理議題。
#人工智慧 #數據集 #倫理

knowingmachines.orgModels All The Way DownLAION-5B is an open-source foundation dataset. It contains 5.8 billion image and text pairs—a size too large to make sense of. We follow the construction of the dataset to better understand its contents, implications and entanglements.

🌗 技術人員忽略了Horizon的問題,導致多人死亡,我們又能從中學到什麼?
➤ 技術人員對Horizon系統問題的忽視引發多重悲劇
itnext.io/how-techies-missed-w
Horizon醜聞持續了數十年,牽涉政治、技術、真實生活的戲劇與無能。這是英國郵政部門1999年引入的一個會計系統,問題始於導入後。即使有德瑞伊(Second Sight)進行長達一年的調查,卻仍認為系統無問題。這顯示我們對系統問題的認知仍有缺陷。文章呼籲觀察我們工作的真實影響,並應更重視。建議觀眾觀看專家Steven Murdoch的相關視頻以瞭解更多細節。
+ 這是一個令人深思的警世故事,科技人士應該更關注系統問題的可能影響。
+ 這段深刻的分析提醒了我們技術人員在開發系統時應該更謹慎,關注實際影響。
#技術 #Horizon #倫理

ITNEXT · How techies missed what’s wrong with Horizon, how that lead to multiple deaths and what can we learn from it all?By Andras Gerlits

🌘 不準取下有毒內容:曝光文件揭示員工被剝奪權力
➤ Musk擁有的X社交平臺被曝光關於內容審查政策的文件
businesspost.ie/news-focus/the
曝光的文件顯示,X社交平臺的內容審查員工不再被授權對發表種族主義、性別歧視和同性戀歧視內容的帳戶採取行動。
+ 這些曝光的文件顯示了社交媒體平臺的內容審查政策可能存在著嚴重的偏頗和不當的放鬆,這將對用戶和社會造成負面影響。
+ 隨著社交媒體平臺的所有權變更,內容審查政策的調整和影響是一個值得關注的議題。
#社交媒體 #內容審查 #權限 #倫理

Business PostThe X Files: Leaked documents reveal how staff were stripped of power to remove toxic contentInternal documents show how X content moderators are no longer authorised to take action against accounts posting racist, sexist, and homophobic content

🌘 倫理 - 如果我懷疑其中一個期刊評論是由人工智能生成的,我應該怎麼辦?- 學術界堆疊交換
➤ 作者是否應該向期刊編輯提及懷疑其中一個評論是由人工智能生成的?
academia.stackexchange.com/que
這篇文章講述了作者在收到期刊的兩個修訂請求評估後,對其中一個評論懷疑是由人工智能生成的的疑慮。作者不確定是否該向期刊編輯提及這個疑慮,因為沒有確鑿證據並且害怕損害自己的文章。最後,作者決定寫信給編輯,解釋疑慮並讓他們決定下一步該怎麼辦。
+ 這是一個倫理問題,作者應該向期刊編輯提及懷疑,並提供證據。
+ 作者的擔憂是合理的,但沒有確鑿證據,寫信給期刊編輯是正確的決定。
#倫理 #生成式人工智能 #同行評審

Academia Stack ExchangeWhat should I do if I suspect one of the journal reviews I got is Al-generated?I've submitted a paper to one of the well-reputable journals and received two reviews asking for a revision. One of the reviews is on-topic and helpful. The other, however, I suspect was generated ...

🌖 Sam Bankman-Fried是一個特點,而不是一個錯誤。
➤ 效能利他主義的倫理盲點和加密貨幣領域的問題
joanwestenberg.com/blog/sam-ba
這篇文章討論了Sam Bankman-Fried作為一個效能利他主義者的特點,以及他在加密貨幣領域的行為所揭示出的倫理問題。
+ 這篇文章很好地指出了效能利他主義的問題,以及在加密貨幣領域中的潛在倫理風險。
+ 我從這篇文章中學到了很多關於效能利他主義和加密貨幣的問題,這讓我對這些議題有了更深入的理解。
#效能利他主義 #加密貨幣 #倫理

Joan WestenbergSam Bankman-Fried is a feature, not a bug. — Joan WestenbergImagine a philosophy so focused on the ends that it becomes blind to the means. This is the seductive trap of Effective Altruism (EA), a doctrine born to the rationalist cradle, promising to solve the world's woes through a calculator. Into this world stepped Sam Bankman-Fried (SBF), a popularly pro

🌘 機器人應該向上打擊
➤ 機器人創作的倫理問題
crummy.com/2013/11/27/0
本文探討了機器人創作的倫理問題,並提出了“向上打擊”的原則。作者通過比較兩個機器人的例子,說明瞭如何在不冒犯人的情況下創作機器人。此外,作者還提到了機器人創作的灰色地帶,並呼籲創作者要遵守基本的倫理規則。
+ 這篇文章提供了有價值的建議,尤其是對於那些想要創作機器人的人來說。
+ 這篇文章提醒了我們機器人創作的倫理問題,我們需要更加謹慎地對待這個問題。
#機器人 #倫理 #Twitter

www.crummy.comBots Should Punch Up

🌗 英國悄悄解散獨立AI諮詢委員會,引起科技界擔憂
➤ 英國政府悄悄解散了數據倫理和創新中心的獨立諮詢委員會,引起了科技界的擔憂。
thenextweb.com/news/uk-dismiss
英國政府悄悄解散了其數據倫理和創新中心的獨立諮詢委員會,引起了科技界的擔憂。該委員會的任務是促進數據和AI技術的負責任部署,特別是在公共部門中。自2018年成立以來,中心一直在向私人和公共部門的組織提供實踐指導,以便以道德和風險減輕的方式創新AI和數據驅動技術。然而,政府對該機構的態度隨著時間的推移而改變,並且沒有將其工作納入公共部門中。
+ 政府應該重視AI倫理,並且需要一個獨立的諮詢委員會來促進AI技術的負責任部署。
+ 這是一個令人擔憂的趨勢,政府應該重視AI倫理和數據隱私,並且需要更多的監管和監督。
#AI #政府 #倫理

TNW | Deep-Tech · UK quietly dismisses independent AI advisory board, alarming tech sectorThe UK government has disbanded the advisory board of its Centre for Date Ethics and Innovation, as it shifts focus on the AI Taskforce.