AI企業Anthropic、ユーザーの「誤用」を防ぐため化学兵器専門家を募集==================================================================23分前シェア保存ゾーイ・クラインマン テクノロジー編集者シェア保存ゲッティイメージズ米国の人工知能(AI)企業Anthropicは、そのソフトウェアの「壊滅的な誤用」を防ぐため、化学兵器および高性能爆薬の専門家を採用しようとしています。つまり、同社はAIツールが化学兵器や放射性兵器の作り方を誰かに教える可能性を懸念しており、そのガードレールが十分に堅牢であることを確保したいと考えています。LinkedInの採用投稿では、応募者は「化学兵器および/または爆薬防衛」において最低5年の経験と、「放射線散布装置」—いわゆるダーティボム—に関する知識を持つ必要があると述べています。同社はBBCに対し、この役割はすでに作成している他の敏感分野の仕事と類似していると説明しました。Anthropicはこの戦略を採用している唯一のAI企業ではありません。同様のポジションは、ChatGPTの開発者であるOpenAIも募集しています。OpenAIのキャリアページには、「生物学的および化学的リスク」の研究者の求人が掲載されており、給与は最大45万ドル(約3,350万円)と、Anthropicが提供する額のほぼ倍です。しかし、一部の専門家はこのアプローチのリスクに警鐘を鳴らしており、AIツールに武器に関する情報を与えることは危険だと指摘しています—たとえそれを使用しないよう指示していても。「AIシステムを使って、ダーティボムやその他の放射線兵器を含む敏感な化学物質や爆薬の情報を扱うことは安全なのか?」と、テック研究者でBBCのAI Decoded TV番組の共同司会者であるステファニー・ヘア博士は述べています。「この種の作業に関する国際条約や規制はなく、これらの兵器に関してAIを使用することも規制されていません。すべては見えないところで進行しています。」AI業界はこれまで、技術がもたらす潜在的な存在的脅威について継続的に警告してきましたが、その進展を抑制しようとする動きは見られません。この問題は、米国政府がイランとの戦争やベネズエラでの軍事作戦を展開する中で、AI企業に対して警鐘を鳴らす動きとともに、緊急性を増しています。LinkedIn米国のAI企業Anthropicの求人広告は、化学兵器と高性能爆薬の専門家を募集し、政策チームに参加させることを目的としています。Anthropicは、米国防総省に対して法的措置を取っています。同省は、同社のシステムが完全自律兵器や米国人の大量監視に使用されることを拒否したため、供給チェーンリスクとして指定しました。Anthropicの共同創設者ダリオ・アモデイは2月に、「この技術はまだ十分ではなく、これらの目的に使用すべきではない」と述べています。ホワイトハウスは、米軍はテック企業の管理下には置かれないと述べています。このリスクのラベル付けにより、米国企業は中国の通信大手Huaweiと同じ立場に置かれています。Huaweiもまた、国家安全保障上の懸念からブラックリストに載せられています。OpenAIは、Anthropicの立場に同意すると述べたものの、その後米国政府と独自の契約を交渉し、まだ開始されていないとしています。AnthropicのAIアシスタント「Claude」はまだ廃止されておらず、現在もPalantirが提供するシステムに組み込まれ、米国とイスラエルのイラン戦争において展開されています。大手テック企業、トランプ政権に対抗してAnthropicを支援--------------------------------------------------------------Anthropic、米国政府をリスクとして提訴--------------------------------------------------AI安全性のリーダー、「世界は危機に瀕している」と述べて辞職、詩の研究へ-------------------------------------------------------------------世界のトップテックニュースやトレンドを追うために、Tech Decodedニュースレターに登録してください。英国以外にお住まいの方はこちらから。人工知能軍事
AI企業Anthropicが、ユーザーによる「悪用」を防ぐため兵器専門家を募集
AI企業Anthropic、ユーザーの「誤用」を防ぐため化学兵器専門家を募集
23分前
シェア保存
ゾーイ・クラインマン テクノロジー編集者
シェア保存
ゲッティイメージズ
米国の人工知能(AI)企業Anthropicは、そのソフトウェアの「壊滅的な誤用」を防ぐため、化学兵器および高性能爆薬の専門家を採用しようとしています。
つまり、同社はAIツールが化学兵器や放射性兵器の作り方を誰かに教える可能性を懸念しており、そのガードレールが十分に堅牢であることを確保したいと考えています。
LinkedInの採用投稿では、応募者は「化学兵器および/または爆薬防衛」において最低5年の経験と、「放射線散布装置」—いわゆるダーティボム—に関する知識を持つ必要があると述べています。
同社はBBCに対し、この役割はすでに作成している他の敏感分野の仕事と類似していると説明しました。
Anthropicはこの戦略を採用している唯一のAI企業ではありません。
同様のポジションは、ChatGPTの開発者であるOpenAIも募集しています。OpenAIのキャリアページには、「生物学的および化学的リスク」の研究者の求人が掲載されており、給与は最大45万ドル(約3,350万円)と、Anthropicが提供する額のほぼ倍です。
しかし、一部の専門家はこのアプローチのリスクに警鐘を鳴らしており、AIツールに武器に関する情報を与えることは危険だと指摘しています—たとえそれを使用しないよう指示していても。
「AIシステムを使って、ダーティボムやその他の放射線兵器を含む敏感な化学物質や爆薬の情報を扱うことは安全なのか?」と、テック研究者でBBCのAI Decoded TV番組の共同司会者であるステファニー・ヘア博士は述べています。
「この種の作業に関する国際条約や規制はなく、これらの兵器に関してAIを使用することも規制されていません。すべては見えないところで進行しています。」
AI業界はこれまで、技術がもたらす潜在的な存在的脅威について継続的に警告してきましたが、その進展を抑制しようとする動きは見られません。
この問題は、米国政府がイランとの戦争やベネズエラでの軍事作戦を展開する中で、AI企業に対して警鐘を鳴らす動きとともに、緊急性を増しています。
LinkedIn
米国のAI企業Anthropicの求人広告は、化学兵器と高性能爆薬の専門家を募集し、政策チームに参加させることを目的としています。
Anthropicは、米国防総省に対して法的措置を取っています。同省は、同社のシステムが完全自律兵器や米国人の大量監視に使用されることを拒否したため、供給チェーンリスクとして指定しました。
Anthropicの共同創設者ダリオ・アモデイは2月に、「この技術はまだ十分ではなく、これらの目的に使用すべきではない」と述べています。
ホワイトハウスは、米軍はテック企業の管理下には置かれないと述べています。
このリスクのラベル付けにより、米国企業は中国の通信大手Huaweiと同じ立場に置かれています。Huaweiもまた、国家安全保障上の懸念からブラックリストに載せられています。
OpenAIは、Anthropicの立場に同意すると述べたものの、その後米国政府と独自の契約を交渉し、まだ開始されていないとしています。
AnthropicのAIアシスタント「Claude」はまだ廃止されておらず、現在もPalantirが提供するシステムに組み込まれ、米国とイスラエルのイラン戦争において展開されています。
大手テック企業、トランプ政権に対抗してAnthropicを支援
Anthropic、米国政府をリスクとして提訴
AI安全性のリーダー、「世界は危機に瀕している」と述べて辞職、詩の研究へ
世界のトップテックニュースやトレンドを追うために、Tech Decodedニュースレターに登録してください。英国以外にお住まいの方はこちらから。
人工知能
軍事