The Story of Computer Networks (Internet)
The world was clearing the rubble of World War II. Dark clouds of smoke were billowing and the innumerable problems facing humanity were ready to strike a new blow. But in the midst of all this, there were a few people in one corner of the world who understood very well that if there was a war after that, the only party that would survive would be the one whose communication network would be strong. At that time all communication was on high frequency but a nuclear attack on a country was no longer an assumption but the world had seen its dire consequences and Japan had become its first victim in history.
In the United States, Douglas Aircraft Company launched a project RAND (research and development) in 1948. Its main purpose was to improve the technology used during the war, keeping in mind the needs of the US Armed Forces. The question arose as to how to keep the communication network safe in the event of a nuclear attack, since the high-frequency communication network would respond.
Many inventions took place differently in many parts of the world, and this is the story of computer networks. Paul Baron, a Polish-American engineer at PROJECT RAND, developed a theoretical model in 1960 stating that if we were to send a message from one place to another by wire, we must break it down into smaller pieces. ۔ These pieces will travel through the various wires individually connected to each other, reach their destination and connect as before, and thus the message will return to its original state.
At that time modern computing was being born and we had a lot of problems technically. For example, how will these small pieces of data be distributed and reunited? Which piece fits where? The hardware was unknown for the programming required to do this and how these packets would be able to maintain their original state until the destination. The seed was sown but could not be applied.
.. .. .. .. .. .. .. ...
Scientists at the National Physical Laboratory in London were faced with the problem of having to wait for hours to save their data into a computer, and when it was their turn to go and see a typist himself and give him instructions on how to put the data into the computer. To save style It was a tedious task that was a waste of time.
In 1965, Donald Davis, who later became head of the computer science department at the NPL, published a research paper.
"Development of a National Communications Service for On-line Data Processing"
I suggested creating a national data network.
In this research paper, he used the term Packet Switching. The word packet means to divide data into smaller parts and switching meant to move these small parts from one place to another.
A year later, when no progress was made by the government, in 1966 Donald Davis formed a team to make that dream a reality. Design developed. This design introduces the concept of interface computer, today known as "Router".
The following year, in 1967, Roger Scantleri read a proposal entitled "NPL Data Network" at the Symposium on Operating Principles. Two computers that want to exchange data with each other are called nodes. Electrical data signals begin to dim after a certain distance and the data packets begin to disappear one by one. To solve this problem, an interface computer (router) was introduced which would wake up these signals from scratch. It is just like when you have to travel from Lahore to Abbottabad, you have to stop at a fuel station for refueling. This was also the main purpose of the router. It was during the Roger Scintillery Conference.
"It would appear that the ideas in the NPL paper at the moment are more advanced than any proposed in the USA".
And it turned out to be absolutely true. It was an idea ahead of its time. This is the time when Mark I was in charge. The size of the computer was a big challenge. To think that two computers could be connected to each other for data transmission seemed like a crazy dream. And the progress that has been made in this regard has been significant.
( to be continued )
کمپیوٹر نیٹ ورکس ( انٹرنیٹ ) کی کہانی
دنیا دوسری جنگ عظیم کا ملبہ صاف کر رہی تھی۔ دھوئیں کے گہرے بادل چھٹ رہے تھے اور انسانیت کو درپیش لاتعداد مسائل ایک نیا وار کرنے کو تیار کھڑے تھے۔ لیکن اس سب کے دوارن دنیا کے ایک کونے میں چند لوگ ایسے بھی تھے جو یہ بات اچھی طرح سے سمجھ چکے تھے کہ اس کے بعد اگر جنگ ہوئی تو بقا اسی فریق کی ہو گی جس کا کمیونیکشن نیٹورک مضبوط ہو گا. تب ساری کمیونیکشن ہائی فریکوئنسی پر ہوتی تھی لیکن کسی ملک پر ایٹمی حملہ ہونا اب ایک مفروضہ نا رہا تھا بلکہ دنیا اسکا خوفناک نتیجہ دیکھ چکی تھی اور جاپان تاریخ میں اسکا پہلا شکار بنا تھا۔
امریکہ میں ڈگلس ایئر کرافٹ کمپنی نے 1948 میں ایک پراجیکٹ RAND ( ریسرچ اینڈ ڈیولپمنٹ ) کی شروعات کی۔ اسکا بنیادی مقصد امریکن مسلح افواج کی ضروریات کو مدنظر رکھتے ہوۓ جنگ کے دوران استعمال کی جانیوالی ٹیکنالوجی کو بہتر بنانا تھا۔ سوال یہ اٹھایا گیا کہ اگر ایٹمی حملہ ہوتا ہے تو اس دوران کمیونیکشن نیٹورک کو کیسے محفوظ رکھا جاۓ کیونکہ اس دوران ہائی فریکوئینسی پر مشتمل کمیونیکشن نیٹورک جواب دے جاتا تھا۔
بہت ساری ایجادات دنیا کے بہت سارے حصوں میں الگ الگ طریقے سے ہوئیں اور کمپیوٹر نیٹورکس کی بھی یہی کہانی ہے۔ PROJECT RAND میں 1960میں ایک پالش نژاد امریکن انجینئر پال بیرن نے ایک تھیوریٹیکل ماڈل تشکیل دیا جس میں یہ بتلایا گیا کہ اگر ہم تار کے ذریعے کسی پیغام کو ایک جگہ سے دوسری جگہ بھیجیں تو لازمی ہے کہ ہم اسے چھوٹے چھوٹے ٹکڑوں میں تقسیم کر دیں۔ یہ ٹکڑے انفرادی طور پر آپس میں منسلک مختلف تاروں سے سفر کرتے ہوۓ اپنی منزل مقصود پر پہنچ کر پہلے کی طرح جڑ جائیں گے اور یوں پیغام اپنی اصلی حالت میں آ جاۓ گا۔
اس وقت ماڈرن کمپیوٹنگ کا جنم ہو رہا تھا اور تیکنیکی طور پر ہمارے پاس بہت سے مسائل موجود تھے۔ مثال کے طور پر ڈیٹا کے یہ چھوٹے چھوٹے ٹکڑے تقسیم کیسے ہوں گے اور دوبارہ آپس میں ملیں گے کیسے؟ کونسے ٹکڑے نے کہاں پر فٹ ہونا ہے۔ اس کام کو کرنے کے لیۓ مطلوبہ پروگرامنگ اور یہ پیکٹس منزل مقصود تک اپنی اصلی حالت برقرار کیسے رکھ پائیں گے ،اسکے لیۓ ہارڈویئر نامعلوم تھے۔ بیج بو دیا گیا تھا لیکن اس پر اطلاق نا ہو سکا۔
۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔۔
لندن میں قائم نیشنل فزیکل لیبارٹری میں سائنسدانوں کو یہ مسئلہ درپیش تھا کہ اپنے ڈیٹا کو کمپیوٹر میں سیو کروانے کے لیۓ انہیں گھنٹوں انتظار کرنا پڑتا اور اپنی باری آنے پر ایک ٹائپسٹ سے خود جا کر ملنا اور اسے ہدایات دینا کہ یہ ڈیٹا کمپیوٹر میں کس انداز سے محفوظ کرنا ہے۔ یہ ایک صبر آزما کام تھا جس میں وقت کا ضیاع بہت ذیادہ تھا۔
1965 میں ڈونلڈ ڈیویس نے ، جو بعد میں NPL میں کمپیوٹر سائنس ڈیپارٹمنٹ کے سربراہ بنے ، اپنے ایک ریسرچ پیپر
" Development of a National Communications Service for On-line Data Processing "
میں ایک نیشنل ڈیٹا نیٹورک بنانے کی تجویز پیش کی۔
اس ریسرچ پیپر میں انہوں نے Packet Switching کی اصطلاح استعمال کی۔ لفظ پیکٹ کا مطلب ڈیٹا کو چھوٹے چھوٹے حصوں میں تقسیم کرنا اور سوئچنگ کا مطلب ان چھوٹے چھوٹے حصوں کو ایک جگہ سے دوسری جگہ منتقل کرنا تھا۔
ایک سال گزرنے کے بعد جب حکومت کی طرف سے کوئی پیشرفت سامنے نا آئی تو 1966 میں ڈونلڈ ڈیویس نے اس خواب کو حقیقت کا روپ دینے کے لیۓ ایک ٹیم تشکیل دی۔ ڈیزائن تیار کیا گیا۔ اس ڈیزائن میں انٹرفیس کمپیوٹر کا کانسیپٹ متعارف کروایا گیا، جسے آج "Router" کے نام سے جانا جاتا ہے۔
اگلے ہی سال 1967 میں راجر سکینٹلری نے " این پی ایل ڈیٹا نیٹورک" کے عنوان سے ایک پرپوزل ، آپریٹنگ سسٹم کے اصولوں کے سمپوزیم میں پڑھا۔ دو کمپیوٹرز جو آپس میں ڈیٹا کا تبادلہ کرنا چاہتے ہیں انہیں nodes کہا گیا۔ الیکٹریکل ڈیٹا سگنلز چند فاصلہ طے کرنے کے بعد مدھم پڑنے لگتے ہیں اور ڈیٹا پیکٹس ایک ایک کر کے ختم ہونا شروع ہو جاتے ہیں۔ اس مسئلے کے حل کے لیۓ انٹرفیس کمپیوٹر (router ) کو متعارف کروایا گیا جو کہ ان سگنلز کو نۓ سرے سے جگا دیتا تھا۔ یہ بلکل ایسے ہی ہے کہ جیسے آپ نے لاہور سے ایبٹ آباد کا سفر کرنا ہو تو بیچ میں فیولنگ کے لیۓ کسی فیول سٹیشن پر رکنا پڑتا ہے۔راؤٹر کا بھی بنیادی مقصد یہی تھا۔ راجر سکینٹلری کانفرنس کے دوران ہی گویا ہوۓ
" It would appear that the ideas in the NPL paper at the moment are more advanced than any proposed in the USA ".
اور یہ بات بلکل سچ ثابت ہوئی۔ یہ اپنے وقت سے آگے کا آئیڈیا تھا۔ یہ وہ وقت تھا جب Mark I کا ذمانہ تھا۔ کمپیوٹر کا سائز ہی ایک بہت بڑا چیلنج تھا ۔ ایسے میں یہ سوچنا کہ دو کمپیوٹرز کو آپس میں کنکٹ کر کے ڈیٹا ٹرانسمیشن کی جاۓ ایک دیوانے کا خواب معلوم ہوتا تھا۔ اور اس حوالے سے جو پیشرفت ہوئی تھی وہ بہت اہم تھی۔
( جاری ہے )
إرسال تعليق