تقنيات الحوسبة السحابية

أساسيات الحوسبة السحابية

نشره Fahad في

بوركو فورهت

قسم الحاسب الآلي والهندسة الكهربائية وعلوم الحاسب الآلي

جامعة فلوريدا أتلانتيك، بوكا راتون، فلويدا، الولايات المتحدة الأمريكية


1. مقدمة

في هذه المقالة، نقوم بتعريف مفهوم الحوسبة السحابية والخدمات السحابية، كما نُقدم طبقات وأنواع الحوسبة السحابية. وسنناقش الفرق بين الحوسبة السحابية والخدمات السحابية، أما التقنيات الجديدة التي وفرت الحوسبة السحابية فسوف تُعرض لاحقاً. كما نناقش أيضاً مميزات الحوسبة السحابية، ومعاييرها والقضايا الأمنية المتعلقة بها. هذا بالإضافة لعرض منصات الحوسبة السحابية الرئيسية، وبائعيها، وعروضها. فضلاً عن مناقشة تحديات الحوسبة السحابية ومستقبلها.

تعرف على رائد الحوسبة السحابية Apache Hadoop

نشره Fahad في

Apache Hadoop

يُعتبر Apache Hadoop إطار عمل برمجي مفتوح المصدر والذي يدعم التطبيقات الموزعة للبيانات الكثيفة، ومرخص وفقاً لرخصة Apache v2. كما أنه يدعم تشغيل التطبيقات على مجموعات كبيرة من الأجهزة السلعية. وقد تم اشتقاق Hadoop من معمارية MapReduce الخاصة بجوجل وأبحاث نظام ملفات جوجل (GFS).

يوفر إطار Hadoop كلاً من الموثوقية وحركة البيانات للتطبيقات. ويقوم Hadoop بتنفيذ نموذج حسابي يُدعي MapReduce، حيث تقسم فيه التطبيقات إلى العديد من الأجزاء الصغيرة للعمل، كل واحدة منها قد تنفذ أو يعاد تنفيذها على أية عقدة موجودة في الكتلة. وبالإضافة لذلك، فإنه يوفر نظام ملفات موزع يقوم بتخزين البيانات على عقد الحساب، مما يوفر درجة عالية جداً لعرض معدل الحركة الكلي عبر الكتلة. هذا وقد صمم كلاً من map/reduce ونظام الملفات الموزع بحيث تعالج مشكلة فشل العقدة تلقائياً من قبل الإطار. بحيث يقوم بتمكين التطبيقات من العمل مع الآلاف من الحواسب المستقلة وبيتابايت من البيانات. هذا وتتكون "منصة" Apache Hadoop حالياً بشكل عام من نواة Hadoop، و MapReduce ونظام ملفات Hadoop الموزع (HDFS)، بالإضافة إلى عدد من المشاريع المتعلقة بما فيها Apache Hive وApache Hbase وغيرهم الكثير.

نظرة معمقة على الحاسوب العملاق supercomputer

نشره Fahad في

نتابع اليوم سلسلة المقالات المتخصصة في مجال تقنيات الحوسبة السحابية، كنا قد نشرنا سابقا مقالة ماذا تعرف عن البيانات الضخمة Big Data؟ و ماذا تعرف عن حوسبة كثيفة البيانات Data-intensive computing؟موضوع مقالة اليوم هي نظرة معمقة على الحاسوب العملاق Supercomputer التي لها علاقة وثيقة بالبيانات الضخمة وكيفية معالجعتها. هذه المقالة عبارة عن ترجمة لمقالة Supercomputer من موسوعة ويكيبديا،وذلك من أجل إثراء المحتوى العربي في هذا المجال المتخصص.

The Blue Gene/P supercomputer

( الحاسوب العملاق Blue Gene/P في معمل أرجونا الوطني يشغل ما يقارب 250,000 معالج باستخدام نظام تبريد مركز بيانات

عادي مجمعة في 72 كابينة موصولة بشكبة ألياف بصرية عالية السرعة.)[1]

الحاسوب العملاق (supercomputer) هو حاسوب يقبع في المرتبة الأولي من حيث قدرة المعالجة الحالية، ولا سيما سرعة الحساب. لقد تم استخدام مصطلح الحوسبة الخارقة "Super Computing" لأول مرة في New York World عام 1929 للإشارة إلى أجهزة تنظيم الجداول العملاقة التي قامت IBM بصناعتها لجامعة كولومبيا.

والجدير بالذكر أن أجهزة الحاسوب العملاقة قدمت في الستينات، وصممت في البداية من قبل "سيمور كراي" في Control Data Corporation، وبعد ذلك في Cray Research. في حين أن أجهزة الحاسوب العملاقة التي صممت في السبعينات كانت تستخدم عدد قليل من المعالجات فقط، إلا أنه في التسعينات، بدأت الآلات التي تحتوي على آلاف المعالجات في الظهور، وبحلول نهاية القرن العشرين، أصبحت أجهزة الحاسوب العملاقة المتوازية التي تمتلك عشرات الآلاف من المعالجات هي المعيار الأساسي لهذه الأجهزة[2][3].

ماذا تعرف عن حوسبة كثيفة البيانات Data-intensive computing؟

نشره Fahad في

نتابع اليوم سلسلة المقالات المتخصصة في مجال تقنيات الحوسبة السحابية، كنا قد نشرنا سابقا مقالة ماذا تعرف عن البيانات الضخمة Big Data؟ موضوع المقالة التالية هي حوسبة البيانات الكثيفة التي لها علاقة وثيقة بالبيانات الضخمة وكيفية معالجعتها. هذه المقالة عبارة عن ترجمة لمقالة Data-intensive computing من موسوعة ويكيبديا،وذلك من أجل إثراء المحتوى العربي في هذا المجال المتخصص.

إن حوسبة كثيفة البيانات Data-intensive computing ، هي فئة من تطبيقات الحوسبة المتوازية التي تستخدم نهج بيانات متوازي لمعالجة كميات كبيرة من البيانات والتي يكون حجمها مكافئ عادة للتيرابايت أو البيتابايت ويشار إليها باسم البيانات الضخمة. إن تطبيقات الحوسبة التي تكرس معظم أوقات عملها من أجل المتطلبات الحسابية تعتبر كثيفة الحوسبة وعادة ما تتطلب كميات صغيرة من البيانات، بينما تطبيقات الحوسبة التي تتطلب كميات كبيرة من البيانات وتكرس معظم وقت معالجتها من أجل عملية الإدخال/الإخراج والمعالجة البارعة للبيانات فتعتبر كثيفة البيانات[1].

ماذا تعرف عن البيانات الضخمة Big Data ؟

نشره Fahad في

من أجل إثراء المحتوى العربي التقني في مجال تقنيات الحوسبة السحابية، يسر وادي التقنية البدء بنشر سلسلة مقالات متخصصة في هذا المجال، ونبدأ هذه السلسلة بمقالة حول البيانات الضخمة Big Data، فماذا تعرف عن هذا الموضوع ولماذا هو محور الكلام هذه الأيام. تابع قراءة هذه المقالة الشيقة.

البيانات الضخمة (Big data) هي عبارة عن مجموعة من مجموعات البيانات الضخمة جداً والمعقدة لدرجة أنه يُصبح من الصعب معالجتها باستخدام أداة واحدة فقط من أدوات إدارة قواعد البيانات أو باستخدام تطبيقات معالجة البيانات التقليدية. حيث تشمل التحديات الالتقاط، والمدة، والتخزين، والبحث، والمشاركة، والنقل، والتحليل والتصور. ويرجع الاتجاه إلي مجموعات البيانات الضخمة بسبب المعلومات الإضافية المشتقة من تحليل مجموعة واحدة كبيرة من البيانات ذات الصلة، بالمقارنة مع المجموعات المنفصلة الأصغر حجماً مع نفس الحجم الإجمالي للبيانات، مما يسمح بوجود ارتباطات تكشف "الاتجاهات التجارية المحورية، وتحديد جودة البحث، وربط الاستشهادات القانونية، ومكافحة الجريمة وتحديد ظروف حركة تدفق البيانات في الوقت الحقيقي".