العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عروض ترويجية
AI
Gate AI
شريكك الذكي الشامل في الذكاء الاصطناعي
Gate AI Bot
استخدم Gate AI مباشرة في تطبيقك الاجتماعي
GateClaw
Gate الأزرق، جاهز للاستخدام
Gate for AI Agent
البنية التحتية للذكاء الاصطناعي، Gate MCP، Skills و CLI
Gate Skills Hub
أكثر من 10 آلاف مهارة
من المكتب إلى التداول، مكتبة المهارات الشاملة تجعل الذكاء الاصطناعي أكثر فعالية
GateRouter
ختر بذكاء من أكثر من 30 نموذج ذكاء اصطناعي، بدون أي رسوم إضافية 0%
لقد قرأت شيئًا تركني مندهشًا جدًا. نشرت مجلة ذا نيو يوركر تحقيقًا ضخمًا حيث حصل صحفيون مثل رونان فارو على وثائق داخلية من OpenAI تكشف نمطًا مقلقًا: على ما يبدو أن سام ألتمان كان يكذب بشكل منهجي على مجلس الإدارة والتنفيذيين حول قضايا أمنية حاسمة.
نقطة الانطلاق قاسية. إيليا سوتسكيفر، العالم الرئيسي في OpenAI، جمع وثيقة من 70 صفحة قبل بضع سنوات استنادًا إلى رسائل Slack، اتصالات الموارد البشرية ومحاضر الاجتماعات. استنتاجه في السطر الأول: يظهر سام نمطًا ثابتًا من الكذب. مثال محدد ورد في التحقيق: في ديسمبر 2022، أكد ألتمان للمجلس أن عدة وظائف في GPT-4 اجتازت مراجعة أمنية. عندما طلبوا الاطلاع على وثائق الموافقة، اكتشفوا أن اثنين من الميزات الأكثر إثارة للجدل لم يتم مراجعتهما أبدًا من قبل لجنة الأمن.
لكن ما لفت انتباهي حقًا هو ما وجدوه في ملاحظات داريو أموديي الشخصية، مؤسس أنثروبيك والمسؤول السابق عن الأمن في OpenAI. أكثر من 200 صفحة توثق كيف كانت الشركة تتراجع خطوة بخطوة تحت ضغط تجاري. تفصيل رئيسي: عندما استثمرت مايكروسوفت في 2019، تفاوضت على بند "الاندماج والمساعدة" الذي يفترض أنه يضمن أنه إذا وجد منافس مسارًا أكثر أمانًا نحو الذكاء العام الاصطناعي، يجب على OpenAI المساعدة. يبدو جيدًا على الورق. المشكلة أن مايكروسوفت حصلت أيضًا على حق النقض على نفس البند، مما جعله وعدًا فارغًا منذ يوم التوقيع.
هناك شيء يبدو شبه سخيف لكنه حقيقي تمامًا: فريق "التوافق الفائق" في OpenAI. أعلن ألتمان علنًا أنهم سيخصصون 20% من قدرة الحوسبة الموجودة لدراسة توافق الذكاء الاصطناعي، بقيمة محتملة تتجاوز مليار دولار. كان إعلانًا جديًا، يذكر مخاطر الانقراض البشري وكل ذلك. لكن عندما تحدث الصحفيون مع أربعة أشخاص عملوا في ذلك الفريق، كانت الحقيقة مختلفة: كانت قدرة الحوسبة المخصصة تتراوح بين 1% و2% فقط من الإجمالي، وكانت الأجهزة قديمة. تم حل الفريق دون إكمال مهمته.
بينما كان ذلك يحدث، كانت المدير المالي لـ OpenAI، سارة فريار، لديها خلافات جدية مع ألتمان حول طرح عام أولي محتمل. تعتقد فريار أن الشركة ليست جاهزة للخروج إلى السوق هذا العام، نظرًا لكمية العمل المعلق والمخاطر المالية المرتبطة بالتزام ألتمان بإنفاق 600 مليار على قدرة الحوسبة خلال خمس سنوات. لكن الغريب هنا: فريار لم تعد ترفع تقاريرها مباشرة إلى ألتمان، بل الآن ترفعها إلى فيديجي سيمو، التي استقالت مؤخرًا لأسباب صحية. شركة تستعد لطرح عام أولي مع هذه الديناميكيات الداخلية، فهي، حسنًا، معقدة.
وصف أحد أعضاء المجلس السابق ألتمان بصفاته المتزامنة: رغبة حقيقية في إرضاء كل شخص في كل تفاعل وجهًا لوجه، ولكن في الوقت نفسه، تجاهل شبه سوسيوي لعواقب خداع الآخرين. وفقًا للتقرير، هذا المزيج نادر في الأشخاص لكنه مثالي لبائع.
ما يقلقني هو أن هذا ليس مجرد شائعة شركاتية. فـ OpenAI تطور ما تصفه بنفسها بأنه ربما يكون أقوى تقنية في تاريخ البشرية. تقنية قد تعيد تشكيل الاقتصاد، وتخلق أسلحة بيولوجية كيميائية على نطاق واسع، أو تنفذ هجمات إلكترونية. والحواجز الأمنية التي كانت من المفترض أن تحمي من هذه المخاطر تم تفكيكها. العالم السابق في الأمن الرئيسي والعالم السابق في البحث الأمني يعتبران المدير التنفيذي غير موثوق به. ويقارن مسؤولو Microsoft بينه وبين SBF.
رد OpenAI على مجلة ذا نيو يوركر كان تقليلًا: قالوا إن المقال يعيد تأكيد أحداثًا تم الإبلاغ عنها سابقًا باستخدام تصريحات مجهولة. لم يرد ألتمان على الاتهامات المحددة، فقط شكك في دوافع المصادر.
عشرة أعوام من OpenAI ملخصة: مجموعة من المثاليين أنشأت منظمة غير ربحية لحماية البشرية من مخاطر الذكاء الاصطناعي. حققت تقدمات استثنائية. تدفق رأس المال بشكل هائل. بدأت المهمة تتراجع. تم حل فريق الأمن. اختفى النقاد. تحولت الهيكلة غير الربحية إلى كيان ربحي. المجلس الذي كان يملك القدرة على إغلاق الشركة الآن مليء بحلفاء المدير التنفيذي. الشركة التي وعدت بتخصيص 20% من قدراتها لحماية السلامة البشرية الآن يقول متحدثون إن البحث عن الأمان الوجودي "ليس شيئًا موجودًا حقًا".
والبطل في هذه القصة على وشك أن يقود OpenAI إلى طرح عام أولي بقيمة تتجاوز 850 مليار دولار. مئات الشهود أطلقوا عليه نفس الوصف: لا يخضع للحقيقة.