обложка мвд | Шины для джипов, все для внедорожников |  

Самым мощным суперкомпьютером в мире снова признали машину IBM BlueGene/L System

Компьютер BlueGene/L System, созданный специалистами IBM совместно с Администрацией по ядерной безопасности США, вновь признан самым мощным суперкомпьютером в мире по версии top500.org. Новый рейтинг суперкомпьютеров был опубликован в понедельник, 12 ноября 2007 года. Показатель пиковой производительности BlueGene/L в 478,2 терафлопса (триллиона операций с плавающей точкой в секунду) до сих пор не

удалось превзойти еще ни одной машине. BlueGene/L занимает первую строку рейтинга Top500.org с ноября 2004 года. Изначально производительность машины составляла 280,6 терафлопсов, однако после модернизации этот показатель удалось увеличить почти вдвое.

За IBM также осталось лидерство по общему числу компьютеров, фигурирующих в рейтинге самых высокопроизводительных ЭВМ в мире. Почти половина таких машин была создана IBM: 232 компьютера. Второе место занимает Hewlett-Packard со 166 суперкомпьютерами. Dell, SGI и Cray создали по десять-двадцать машин, попавших в рейтинг top500. http://lenta.ru/news/2007/11/13/supercomp/

Самый мощный суперкомпьютер мира удвоил собственный рекорд производительности. http://lenta.ru/news/2005/10/31/bluegene/

Достроенный в США самый мощный суперкомпьютер мира Blue Gene/L компании IBM удвоил принадлежваший ему же рекорд производительности. Теперь официально заявленная производительность этой вычислительной системы составляет 280,6 терафлопов или 280,6 триллионов операций в секунду.

В минувшем июне Blue Gene/L в очередной раз был признан мощнейшим суперкомпьютером с показателем в 136,8 терафлопа по итогам мирового суперкомпьютерного рейтинга Top500, который выходит раз в полгода. Производительность системы увеличивалась по мере достраивания новых компонентов. Машина находится в американской правительственной атомной лаборатории имени Лоуренса (LLNL), где накануне представителями Министерства энергетики США и IBM было объявлено о завершении строительства.

Предполагается, что Blue Gene/L в сочетании с другим суперкомпьютером ASC Purple, производительность которого составляет 100 терафлопс, будет работать над государственными задачами, в частности, над моделированием ядерных взрывов.

Биологи изготовят компьютер из ДНК: http://lenta.ru/news/2005/07/21/dna/

Представители семи университетов собираются вместе выяснить, возможно ли создать полноценные компьютеры на основе молекул ДНК, сообщает PhysOrg.com. Генетические процессоры, считают исследователи, смогут со временем вытеснить кремниевые, причем при равном быстродействии будут во много раз компактнее.

Первым использовать ДНК для вычислений предложил в 1994 году американский математик Леонард Адлеман, один из создателей алгоритма шифрования RSA. В качестве примера он решил с помощью биомолекул известную "задачу о семи городах" (несколько дорог, связывающих города, надо обойти так, чтобы побывать в каждом ровно один раз). В его модели любому "выбору пути" отвечали последовательности нуклеиновых оснований, а всевозможные комбинации перебирались при взаимодействии и "пересборке" молекул.

Сейчас ученые намерены отталкиваться от других свойств: из-за особого распределения зарядов ДНК представляет собой миниатюрный электронный прибор. Если разобраться с механизмом переноса электрона в нем, он сможет успешно конкурировать с транзисторами, из которых изготовлены современные процессоры. Исследование особенно важно, поскольку эксперты обещают, что вскоре транзисторы достигнут предельной величины, а дальше квантовые эффекты начнут мешать нормальному протеканию операций.

Главными предметами изучения станут "экзотические" виды биомолекулы - m-ДНК (митохондриальная) и g4-ДНК, которые не отвечают непосредственно за передачу наследственной информации. По этой причине генетики традиционно уделяли им мало внимания, а совсем недавно такими молекулами заинтересовались физики - выяснилось, что они проявляют необычные электрически свойства. Впрочем, только экспериментами над уже известными биополимерами ученые ограничиваться не хотят, и намерены в ходе новых опытов модифицировать ДНК для своих задач. Когда следует ждать первых результатов, пока не сообщается.

Искусственный интеллект

http://lenta.ru/articles/2005/07/11/simulation/

Нас посчитают

Суперкомпьютерам доверили самые главные вопросы науки

На прошлой неделе сотрудники Лос-Аламосской лаборатории - места, где 60 лет назад создали первую атомную бомбу - рассказали в сравнительно коротком интервью, с помощью каких методов США будут теперь противостоять "новым угрозам". Месяцем раньше германские астрофизики и швейцарские нейрофизиологи сообщили прессе о своих проектах. Как выяснилось, ученые, области интересов которых почти не пересекаются, говорят об одном и том же. И, в отличие от своих предшественников, претендуют на исчерпывающее описание реальности. Правда, созданной искусственно.

Все три проекта используют суперкомпьютеры для не вполне обычного моделирования. Прообразы моделей - человеческий мозг, государство и Вселенная - вообще говоря, представляют собой исчерпывающий список всех возможных целей научного любопытства.

В равной степени непривычна и избранная методика - компьютерная симуляция. Ученым приходится следовать ньютоновской максиме - "гипотез не измышляю", чтобы, ограничившись минимумом предположений, предоставить систему самой себе.

Самоочевидный для экспериментаторов, такой подход давно и уверенно используется для описания "частных случаев", когда поведение простых объектов плохо укладывается в рамки известных формул. Но к системам, сложность которых превосходит все естественные ожидания, его применяют, возможно, впервые.

Мозг

Федеральная политехническая школа Лозанны (EFPL) приобрела у IBM суперкомпьютер Blue Gene, восьмой в мире по быстродействию, в начале июня. Машина, зарекомедовавшая себя детальным расчетом структуры белков, в течение последующих двух лет будет изображать фрагмент коры головного мозга. Точнее - нейронную сеть в неокортексе: эту область считают главной среди ответственных за "слишком человеческое" в сознании - язык, память, творческое мышление. Каждый из 4096 процессоров станет на время "нервной клеткой", способной обмениваться сигналами с соседями. Внутри неокортекса они сгруппированы в колонки, и именно такую колонку будет воспроизводить весь суперкомпьютер.

Никаких дополнительных закономерностей, кроме био- и электрохимических реакций, в программу не закладывали. Строго говоря, это все, что можно сказать о механизмах мышления с абсолютной достоверностью. Нейрофизиологи решили отталкиваться от "ясных и очевидных" первопринципов, в частности для проверки более сложных гипотез, но едва ли ограничатся этим. Глава Института мозга EFPL уже заявил, что на последующих стадиях планируется воссоздать весь мозг. Когда это произойдет, неизвестно, но "вступительная часть" - моделирование неокортекса - должна занять не более двух лет.

Ни создатели суперкомпьютера, ни представители EFPL, надо думать, сознательно не формулируют вопрос, вынесенный Тьюрингом в заголовок знаменитой статьи 1950 года - "Может ли машина мыслить". В их распоряжении - 22,8 терафлопа и физические законы. Теоретик искусственного интеллекта пытался понять, как посредством математических алгоритмов имитировать те операции, которые осуществляет человеческое мышление. Теперь само слово "имитация" выглядит намеренным упрощением - механизм собираются скопировать, а вовсе не "переизобрести".

Заставить компьютер "думать" - одна из самых популярных проблем кибернетики (и, по понятным причинам, науки вообще). Тьюринг, умерший в 1954 году, не застал результатов, превративших его высказывания из "заклинаний технократа" в программу действий: функциональные языки программирования появились вскоре после его смерти, нейронные сети и "нечеткая логика" - позже. Однако все эти средства, найдя себе неожиданные применения, начали жить самостоятельной жизнью, а рост быстродействия суперкомпьютеров позволил не воспринимать их в качестве главного инструмента при новом "акте творения".

Государство

Поэтому тот, кто преуспел в военном деле, подчиняет чужие армии, не вступая в битву, захватывает чужие города, не осаждая их, и разрушает чужие государства без продолжительного сражения.

Сунь-Цзы

Лаборатория в Лос-Аламосе - главный оборонный исследовательский центр США, всемирно известный благодаря Манхэттенскому проекту. Вернее, благодаря его участникам (Эйнштейну, Бете, Нейману, Фейнману, Ферми, Теллеру), его результатам - Хиросиме и Нагасаки - и не вполне однозначному отношению первых ко вторым. События последних нескольких десятилетий, когда оборонные успехи связывали в первую очередь с инженерными достижениями, и только потом - с физикой, отодвинули в общественном сознании "резервацию для Нобелевских лауреатов" на второй план.

Cкупого комментария из этой лаборатории было достаточно, чтобы отодвинуть на второй план все остальное: мощный суперкомпьютер уже давно содержит внутри себя "виртуальную Америку" - с людьми и инфраструктурой. Разумеется, не праздного любопытства ради и не для воплощения смелых фантазий братьев Вачовски: это - очередная мера по борьбе с терроризмом. Смысл модели - предсказать последствия возможных терактов, не вовлекая в "учения" реальных людей и технику (не говоря уже о том, что "учебная тревога" не способна никого заставить поступать так же, как во время настоящей катастрофы).

Авторы эксперимента, ссылаясь на секретность, ограничились отдельными репликами о том, как устроено виртуальное государство. Известно, что в нем можно проследить за перемещениями каждого отдельного гражданина, заставив его реагировать на "внешние раздражители" - сигнал тревоги, распространение новостей, непосредственную опасность. Поведение террористов продумано в еще больших деталях - их действия, правда, определяет не программа, а сами разработчики. Уже опробованы такие сценарии, как распространение болезнетворных бактерий и прекращение работы электростанций.

Любопытно, что в Лос-Аламосе были осуществлены первые работы по компьютерному моделированию вообще - как раз в контексте Манхэттенского проекта. Тогда нужно было рассчитать численно механизм детонации ядерного заряда, а в качестве "побочного продукта" появились математическая теория игр и представления об архитектуре современных компьютеров (и то, и другое - благодаря Джону фон Нейману).

Более поздние и более близкие аналоги "виртуальной Америки" следует искать в математической биологии: эксперименты по численному воспроизведению колонии бактерий широко известны, а первая программа, демонстрирующая их возможность - игра "Жизнь" - является самым простым и самым наглядным примером компьютерной симуляции. Причем, если последней достаточно для исполнения практически любого микропроцессора, то мощности суперкомпьютера хватает, чтобы куда более сложные виртуальные существа "вели себя" правдоподобно.

Вселенная

...исчисляет количество звёзд; всех их называет их именами

Книга Псалмов Давидовых, 146:4

Эксперимент под названием Millenium Run, осуществленный на суперкомпьютере в Институте Макса Планка, вероятно, самый масштабный из всех. В виртуальный куб со стороной 2 миллиарда световых лет заключили 10 миллиардов частиц и проследили их историю от момента, близкого к Большому Взрыву, до современности. Каждая частица - с большей, чем у среднего звездного скопления, "виртуальной массой" - обозначала некоторый объем протозвездного вещества или "темной материи". Частицы разместили в далеком прошлом - и в течение месяца ждали от 4-терафлопового компьютера многотерабайтной выдачи, отвечающей структуре квази-Вселенной в заданные моменты времени.

За масштабы пришлось расплачиваться существенными упрощениями. Экспериментаторы рассматривали только гравитационные взаимодействия между близкими точками, и воспользовались тем соотношением между "обычным" и "темным" веществом, на которое указывают современные космологические теории.

Согласно замыслу, результат должен был не столько удивить кого-либо, сколько подтвердить уже существующие взгляды. Это и произошло, когда в начале июня журнал Nature опубликовал итоговую статью участников эксперимента. Впрочем, удивляться предстояло "мирянам", а не астрофизикам: странная "рабочая гипотеза" теоретиков стала признанным фактом. Космос действительно на 70 процентов состоит из "темной энергии", заставляющей его расширяться, на четверть - из "темного вещества", и только на пять процентов - из привычных нам атомов.

Компьютерная модель также перевела из разряда экзотики в категорию фактов сверхтяжелые черные дыры, которые служат "зародышами" галактик либо находятся в центре ярких квазаров на периферии видимого пространства. Еще астрофизики выяснили, что "случайные отклонения" на ранних стадиях роста Вселенной не сглаживаются при ее последующем развитии, как это происходит в обычных молекулярных системах.

Организаторы уверяют, что опубликована только малая часть выводов - массив данных слишком велик, и в нем можно будет искать закономерности и после появления новых гипотез. Получается, что у ученых появилась "Вселенная в кармане", позволяющая обратиться к себе в любой момент, когда понадобится узнать что-нибудь о прототипе.

В том же - неоконченном - состоянии и два других эксперимента по "моделированию всего". Но и ту часть, которая сделана, не все оценивают одинаково. Одновременно с теми, кто справедливо полагает, что это - прорыв, у суперкомпьютерных симуляций есть много противников. Чаще всего указывают на очевидный недостаток - модели грубы, а действительность намного сложнее (то же, впрочем, можно сказать и о "формулах на бумаге", что не мешает технической цивилизации существовать благодаря им). Но более серьезным кажется другой контраргумент - наличие сверхсильной техники лишает численные эксперименты прежней элегантности, и трудно утверждать, что, например, фон Нейман или Тьюринг не смогли бы с ее помощью добиться намного большего. А возможное превосходство "буквально воспроизведенного" человеческого мозга над математически выстроенным искусственным интеллектом почему-то напоминает победу компьютера над живым шахматистом - безусловную, но бесполезную.

Борислав Козловский

Шотладнский суперкомпьютер будет экономить электричество

Сотрудники Эдинбургского центра параллельных вычислений приступили к сборке суперкомпьютера, способного самостоятельно "оптимизировать" свою архитектуру в зависимости от проводимых расчетов, сообщает New Scientist. Для этого вместо обычных микропроцессоров использовали программируемые логические интегральные схемы (FPGA).

Микросхемы FPGA представляют собой двумерную "сеть" логических блоков, маршруты между которыми могут изменяться. Такая конструкция позволяет перепрограммировать процессор "на лету". При этом, как правило, потребляется существенно меньше энергии, чем в случае микропроцессоров с "жесткой" архитектурой, а сами интегральные схемы более компактны.

Комплекс, построенный на основе 64 FPGA-процессоров, будет обладать производительностью порядка 1 терафлопа, и обещает быть в 100 раз менее энергоемким, чем "жесткие" аналоги. При этом он будет уступать большинству уже существующих суперкомпьютеров, некоторые из которых преодолели рубеж в 100 терафлопов, но разработчики видят свою задачу в другом. Технология FPGA известна достаточно давно, но, несмотря на ее очевидные достоинства, серьезных попыток сборки многопроцессорных систем на ее основе пока не предпринималось.

Проблема авторы замысла видят в том, что техника писания программ для "микросхем будущего" недостаточно развита. Помогать эдинбургским исследователям согласилась группа компаний, занимающихся производством и программированием таких устройств - FHPCA. Они надеются, что нынешняя разработка станет прототипом большинства будущих суперкомпьютеров. 01.06.2005г. 

Физики синтезировали молекулы для квантового компьютера

Сотрудниками Чикагского и Инсбрукского университетов впервые были синтезированы молекулы в состоянии ферми-конденсата. Следствием этого открытия, считают ученые, могут стать создание квантового компьютера и понимание механизмов сверхпроводимости. С последним многие связывают будущее электроники, а квантовые компьютеры должны изменить наши представления о сложности вычислений и устойчивости современных криптографических схем.

В квантовой механике принято деление частиц на два класса, в зависимости от того, какой статистической модели - Ферми-Дирака или Бозе-Эйнштейна - они подчиняются. В 1995 году был впервые получен конденсат, состоящий из бозе-атомов в одинаковом квантовом состоянии при близкой к абсолютному нулю температуре. Шесть лет спустя авторы работы были удостоены Нобелевской премии по физике.

Ферми-атомы удалось "сконденсировать" только в 2003 году. При этом установили, что они "группируются" по два с образованием "виртуальной" бозе-частицы, как это происходит с электронами в сверхпроводящих материалах.

Низкотемпературные конденсаты заметно отличались от "обычных" состояний вещества - жидкого, твердого и газообразного, обладали сверхтекучестью и проявляли волновые свойства.

До недавнего времени, пока речь шла об "атомных" конденсатах, исследование необычной материи считалось делом физиков. Открытие молекулярной ферми-системы делает возможной химию нового состояния вещества - и, следовательно, синтез таких молекул, чтобы конденсат удовлетворял заранее сформулированнмы требованиям. 05.04.2005г.

Ученые построили компьютерную сеть, которую невозможно взломать

Несколько научных центров в мире занимаются в настоящее время разработкой технологии, которая позволит создавать абсолютно защищенные компьютерные сети, которые хакеры не смогут взломать. Как пишет во вторник газета Financial Times, речь идет о квантовой криптографии, с помощью которой предполагается шифровать информацию, после чего несанцкионированная ее расшифровка будет невозможна.

Накануне первый опытный образец защищенной квантовой сети был создан в британском Кембридже специалистами компании Toshiba Research Europe. Ее возможности были протестированы на мощностях крупной телекоммуникационной компании MCI, и тест дал положительные результаты.

Квантовые компьютерные технологии основаны на передаче данных с помощью фотонов (частиц света), которые хранят биты информации, тем или иным образом поляризуясь. Квантовые вычисления производятся с огромной скоростью, и технология квантовой криптографии позволяет менять криптографические ключи несколько раз в секунду. Как известно, хакеру, чтобы получить доступ к зашифрованной информации, необходимо подобрать криптографический ключ. В зависимости от сложности технологии шифрования ключ можно подбирать от нескольких минут до нескольких лет, при этом обычно требуются значительные компьютерные мощности. Чтобы попытаться подобрать все ключи к информации, зашифрованной квантовой криптографией, необходимы сроки, несопоставимые с жизнью человека.

В настоящее время главная проблема квантовых сетей - их чрезвычайная чувствительность к условиям работы. Нарушить функциональность такой сети может незначительное изменение температуры или произвольное физическое перемещение. Именно на решение этой проблемы направлены усилия ученых. 28.12.2004г.

IBM создает самый быстрый компьютер в мире

Инженеры компании IBM заканчивают создание самого быстрого в мире суперкомпьютера Blue Gene/L. Судя по результатам предварительных испытаний, Blue Gene/L сумеет побить рекорд скорости, установленный три года назад компьютером Earth Simulator японской фирмы NEC.

Как сообщает агентство Associated Press, средняя вычислительная мощность Blue Gene/L должна составить 36 терафлопс (триллионов операций с плавающей точкой в секунду), что превышает аналогичный показатель японского суперкомпьютера всего на полпроцента.

Создание Blue Gene/L, заказанного Ливерморской национальной лабораторией имени Лоуренса (Lawrence Livermore National Laboratory) для исследований в области естественных наук, будет завершено в мае 2005 года. Суперкомпьютер будет состоять из 130 тысяч процессоров и располагаться на площади в два раза меньше теннисного корта.

Официально Blue Gene/L получит свой чемпионский титул только в ноябре, когда на сайте Top500.org будет представлен очередной список пятисот самых мощных суперкомпьютеров. 29.09.2004

Америка строит суперкомпьютер мощнее чем Earth Simulator

Министерство энергетики США собирается построить в научно-исследовательском центре правительства США Oak Ridge National Laboratory суперкомпьютер, который будет мощнее, чем знаменитый Earth Simulator, сообщает MSNBC. Как ожидается, новый суперкомпьютер будет способен выполнять 50 триллионов операций в секунду. Мощность Earth Simulator, который в 2002 году построила японская компания NEC составляет 35,8 триллиона операций в секунду.

Официально о начале строительства нового суперкомпьютера во вторник объявил министр энергетики спенсер Абрахам (Spencer Abraham). По его словам, мощный суперкомпьютер крайне необходим США, чтобы занять лидирующее положение в науке и разработке новых технологий.

Над проектом будут работать также представители некоторых крупных корпораций, таких как Cray Inc., IBM и Silicon Graphics Inc..

Между тем, еще в ноябре прошлого года американский исследовательский институт Battelle Memorial Institute заявил о начале разработки еще более мощного суперкомпьютера. Его планируется построить к 2008 году и он будет способен выполнять до 1000 триллионов операций в секунду.

Машина также строится на базе Oak Ridge в штате Теннеси. Ее предполагается использовать совместно с другими правительственными научно-исследовательскими структурами и Государственным университетом штата Огайо для решения различных задач, в частности, в области биологических исследований. 12.05.2004.

IBM построила мини-суперкомпьютер


Корпорация IBM заявила, что разработала и построила суперкомпьютер, размером с телевизор, сообщает Reuters.
Его построили по технологии производства микрочипов, которую будут использовать при создании игровых видеоприставок будущего.
Новый компьютер способен производить до двух триллионов операций в секунду.
По словам представителя IBM, новый компьютер, название которого объявлять пока не стали, построен по тому же принципу, что и знаменитый Blue Gene, мощность которого - 360 терафлоп (360 тысяч миллиардов вычислений в секунду).
В новом компьютере используется тысяча микропроцессоров, построенных с использованием технологии PowerPC. Процессоры PowerPC использует компания Apple Computer. Кроме того, их будут ставить на игровые видеоприставки следующего поколения.
США строят суперкомпьютер в 300 раз мощнее японского конкурента
Американский исследовательский институт Battelle Memorial Institute заявил
о начале разработки самого мощного в мире суперкомпьютера. Суперкомпьютер планируется построить к 2008 году и он будет способен выполнять до 1000 триллионов операций в секунду, сообщает Asscosiated Press.
Машина строится на базе национальной лаборатории правительства США Oak Ridge в штате Теннеси. Ее предполагается использовать совместно с другими правительственными научно-исследовательскими структурами и Государственным университетом штата Огайо для решения различных задач, в частности, в области биологических исследований.
В настоящее время самым мощным суперкомпьютером считается японская машина Earth Simulator, способная выполнять 35,8 триллиона операций в секунду. Новый американский суперкомпьютер будет мощнее ее примерно в 300 раз. На его строительство создатели предполагают затратить 500 миллионов долларов.

Ученые обнаружили предел скорости передачи компьютерных данных.

Ученые обнаружили предел скорости для передачи компьютерных данных, сообщает Associated Press. При этом специалисты отмечают, что предел в 1000 раз превышает скорости, существующие в самых современных устройствах хранения данных.
Информация на дисках хранится в виде последовательности мест с переменной намагниченностью, соответствующей нулю или единице. Перезапись данных подразумевает посыл на диск электромагнитного импульса, который меняет направление намагниченности каждого бита. С увеличением частоты импульсов сокращается время, необходимое для сохранения или перезаписи информации.

Однако, если импульсы будут идти слишком часто, их высокая энергия может вызвать хаотическое изменение направления намагниченности и приведет к сбою стабильной работы системы, считают ученые. Для подтверждения своих выводов специалисты использовали ускоритель элементарных частиц Стэнфордского университета, с помощью которого они бомдардировали образец магнитного материала для изготовления накопителей.

Скорость импульсов энергии при этом почти достигала скорости света, а их длительность составляла всего 2,3 пикосекунды. При таких показателях намагниченность образца материала принимала хаотичный характер, что совершенно неприемлемо для сохранения данных.

В исследовании принимали участие специалисты Стэнфордского университета, ученый из московского института теоретической физики имени Ландау и инженеры компании-производителя накопителей Seagate Technologies LLC.

На главную

| |