Русский
Русский
English
Статистика
Реклама

Ctc

Перевод Остин Рош реальная история первого ПК

23.07.2020 20:24:01 | Автор: admin
Прим. редактора: статья датирована 2008 годом, поэтому некоторые даты потеряли свою актуальность.

В этом году исполняется сорок лет со дня изобретения одного почти забытого устройства, ставшего впоследствии первым персональным компьютером. Удивительно, но события, описанные в статье, имели место вовсе не в Калифорнии.

Эпоху ПК x86 принято отсчитывать с 1972 года, с момента, когда Intel Corp. разработала чип 8008, 8-битного преемника 4-битного 4004. Последний был создан годом ранее и вошел в историю как первый в мире микропроцессор.

Но на деле история чуть сложнее и интереснее. Во-первых, биография x86 началась на 4 года раньше, еще в 1968 году. Её основоположник ныне почти забытый инженер Остин Рош из Сан-Антонио. Он горел идеей создания персонального компьютера.


Основатели CTC

Во-вторых, Intel приступила к производству процессоров крайне неохотно, а 8008 вовсе не является прямым потомком 4004. Это были два совершенно разных проекта.


Intel 4004

Мы поговорили с промышленным дизайнером Джоном Джеком Фрассанито, главой John Frassanito & Associates Inc. Когда Остин Рош набросал первые чертежи своего компьютера прямо на скатерти клуба в Сан-Антонио, Фрассанито был поражен. Дело было в 1968 году. Тогда Джон работал аккаунт-менеджером у легендарного дизайнера Рэймонда Лоуи (который помимо всего прочего придумал бутылку Coca-Cola и Studebaker Avanti).

Фрассанито пригласили в Computer Terminal Corp. (CTC) для помощи в разработке первого продукта компании. Планировалось создать электронную замену Teletype Model 33. CTC тогда только-только открылась, а её основателями были инженеры НАСА Фил Рэй и Остин Рош.

По прибытии в Сан-Антонио Фрассанито с удивлением узнал, что проект телетайпа это всего лишь легенда, чтобы получить от инвесторов деньги на создание персонального компьютера.

Тайная повестка дня


При написании бизнес-плана решили избегать термина персональный компьютер, поскольку банкиры понятия не имели, что это такое, вспоминает Фрассанито. Таким образом, их первый продукт базировался на уже существующем устройстве. Но идея заключалась в том, чтобы создать первую фирму по производству персональных компьютеров.

Они построили терминал Datapoint 3300. Это дало CTC статус действующей компании, и можно было приступать к настоящему проекту, которым Рош был буквально одержим. Фрассанито вспоминает, как часами они спорили о том, как должен выглядеть и работать персональный компьютер. Рош имел привычку объясняться метафорами из классических произведений, таких как Государь Макиавелли, что вынуждало Фрассанито их читать.


Терминал Datapoint 3300 в естественной среде обитания

Чтобы рынок не испугался появления новой машины, CTC рекламировали её под видом устройства, которое заменит перфокартную IBM 029. Даже дисплей их ПК был уменьшен вдвое, чтобы походить на обыкновенную перфокарту IBM. Чтобы машина казалась привычной даже простым офисным служащим, её шрифт мимикрировал под оттиски печатной машинки IBM Selectric.


IBM 029

Однако корпус компьютера-прототипа страдал от перегрева. В конце 1969 и начале 1970-х годов инженеры CTC изучали способы уменьшения количества компонентов. Одной из идей было разместить плату CPU внутри небольшого чипа.

На сцене появляется Intel


В 1970 году Фрассанито сопровождал Роша на встрече с главой Intel Бобом Нойсом. Они пытались склонить Intel, тогда еще совсем молодую компанию, производящую микросхемы памяти, к созданию процессорных чипов. Рош предложил Нойсу разработать революционный чип за свой счет, а затем поставлять его всем желающим, включая CTC.
Нойс был заинтригован и сказал, что Intel может этим заняться. Однако шаг потенциально глупый, вспоминает Фрассанито. Он сказал: имея процессор, можно продавать по одному чипу для каждого компьютера. А микросхемы памяти продаются сотнями. Тем не менее, Нойс согласился разработать чип за $50000.



Роберт Нойс, сооснователь Intel

Воспоминания Фрассанито подтверждаются стенограммой группового интервью, которое в сентябре 2006 года проходило в Музее истории компьютеров. На нем присутствовало шесть человек, которые занимались разработкой или продвижением первых процессорных чипов Intel: Федерико Фаггин, Хэл Фини, Эд Гелбах, Тед Хофф, Стэн Мазор и Хэнк Смит. Руководство Intel не хотело, чтобы производители компьютеров считали их конкурентами. Появление у Intel собственного процессора могло привести к потере множества контрактов.

По их словам, этот страх держался вплоть до 1973 года. Работа над чипом для CTC под названием 1201 и вовсе была заморожена летом 1970-го после того, как CTC предпочли ему плату ЦП на TTL-схемах.

В Intel никто особенно не удивился этому решению. Архитектура процессора CTC могла занять до 16000 байт памяти, а если вы и так тратите кучу денег на память, то нет смысла экономить плюс-минус 50 долларов на процессоре, перемещая его из TTL. К 1972 году стоимость памяти слегка упала, 16 КБ на тот момент стоили порядка 1280 долларов (около 6700 долларов на современные деньги).

Дебют 2200


Настольный персональный компьютер CTC на базе TTL, получивший название Datapoint 2200, был представлен публике в 1970 году. В качестве устройства хранения в нем использовались кассеты. На них помещалось до 130 КБ данных. Еще 8 КБ были отведены под внутреннюю память. Первым покупателем ПК 25 мая 1970 года стала компания General Mills. В общей сложности они закупили 40 устройств.


Datapoint 2200

В лучших традициях маркетинговой модели IBM машины сдавались в аренду: 168 долларов в месяц за машину с 8КБ памяти и 148 долларов за 2КБ. Модемы продавались отдельно и стоили 30 долларов в месяц. ОЗУ не было, поэтому для внутренней памяти устройство использовало рециркуляционную память MOS.

Аарон Голдберг, в 1970-х годах работавший в IDC, а ныне вице-президент Ziff Davis Media Market Experts, отзывается о Datapoint 2200 как об одном из первых однопользовательских миникомпьютеров того же класса, что и IBM 5320. По его словам, это были продукты промышленного уровня. Они могли потеснить на этом рынке мэйнфреймы.


Рекламный плакат Datapoint

Intel тем временем выпустила свой 4-битный процессор Intel 4004. Компания планировала продавать его Busicom, японской фирме по производству калькуляторов. Контракт с Intel японцы заключили даже раньше, чем CTC, но работа над обоими проектами шла параллельно. Полгода спустя Seiko Holdings Corp., другая японская фирма, захотела получить чип 1201 для использования в научном калькуляторе. Intel возобновила работу над чипом CTC. Вынужденный простой сыграл свою роль: создатели 1201 перешли с 16-контактного корпуса на 18-контактный.

Надо сказать, руководство CTC вело переговоры не только с Intel. Другая компания, Texas Instruments Inc, также разрабатывала для них чип 1201. Но поставленный в 1970-1971 году чип 1201 от TI был неработоспособен, и проект свернули. Это была роковая случайность. TI использовала раннюю спецификацию, разработанную для CTC корпорацией Intel, но не учла того, что в ней могут быть ошибки.

Рабочий чип Intel 1201 был представлен CTC в конце 1971 года. К тому времени CTC уже вовсю работала над Datapoint 2200 II, который был бы намного быстрее и поддерживал жесткий диск. Однако руководство CTC сочло, что 1201 морально устарел. Общим голосованием Роша отстранили от проекта. Фрассанито вспоминает, как Рош побледнел от ужаса, узнав об этом решении. Интеллектуальная собственность на 1201 полностью перешла к Intel.

Intel получает права на 1201


Рош говорил, что идея напечатать целый компьютер на чипе поразительна и инновационна. Он был убежден, что нельзя никому отдавать права на эту разработку вспоминает Фрассанито. Но они сказали: зачем тратить 50 000 долларов на продукт, который мы не будем использовать? Это было одно из худших бизнес-решений в компьютерной истории.

4004 попал в каталог Intel в ноябре 1971 года и стал первым в истории коммерческим микропроцессором. 1201, переименованный в 8008, появился на рынке в апреле 1972 и продавался по цене 120 долларов за штуку. В отличие от 4004, 8008 мог использовать стандартную оперативную память и ПЗУ. Поскольку чип не составлял конкуренции производителям компьютеров, санкций с их стороны не последовало. Руководство Intel выдохнуло с облегчением.



В том же 1972 году Рошу, Рэю и Фрассанито был выдан Патент 224,415 на создание Datapoint 2200. Фактически это позволяет считать их создателями первого в мире ПК.
В 1974 году Intel выпустила чип 8080, основанный на той же архитектуре, что и 8008. Инженеры CTC поделились с Intel экспертизой, полученной во время работы над Datapoint 2200 II. Новый 40-контактный корпус позволил сократить количество вспомогательных микросхем.

Последовавшие за 8080 процессоры основали династию x86, а окончательно утвердил их на троне IBM PC 1981 года. Таким образом, любой современный персональный компьютер может считаться потомком Datapoint 2200.
Я смотрю на современные ПК и вижу в них призрак той самой первой машины. Он таится внутри, среди множества новых штучек и новых регистров, Виктор Д. Пур, бывший исполнительный директор CTC.

Intel заработала на своей линейке x86 миллиарды долларов. Что касается CTC, в конце 1972 года она была переименована в Datapoint. Некоторые инженеры, работавшие над Datapoint 2200, позже участвовали в создании первой коммерческой локальной сети ARCnet (1977 год). К 1980-ом Datapoint пришла в упадок. Как и многие другие компании, выпускающие мини-компьютеры, она оказалась не в состоянии конкурировать с более дешевыми производителями ПК по иронии судьбы, прямыми потомками их детища. Компания Datapoint была окончательно упразднена в 2000 году.


Рош погиб в автомобильной катастрофе в 1975 году, Рэй скончался в 1987-ом, а Нойс в 1990-ом. Фрассанито ушел из Datapoint и открыл собственную фирму в 1975-ом.
А Datapoint 2200 ни дня не использовался в качестве замены IBM 029.
Подробнее..

Эксперимент в распознавании рукописных текстов на кириллице

16.12.2020 14:07:22 | Автор: admin

Введение

Распознавание рукописного текста (англ. Handwritten Text Recognition, HTR) - это автоматический способ расшифровки записей с помощью компьютера. Оцифрованный текст рукописных записей позволило бы автоматизировать бизнес процессы множества компаний, упростив работу человека. В данной работе рассматривается модель распознавания рукописного текста на кириллице на основе искусственной нейронной сети. В исследовании использовалась система SimpleHTR разработана Гаральдом, а также LineHTR, расширенной версией системыSimple HTR. Подробнее о SimpleHTR можно почитать здесь.

Датасет

В этом разделе опишу два типа наборов данных: Первый набор данных содержит рукописные цитаты на кириллице. Он содержит 21 000 изображений из различных образцов почерка (названия стран и городов). Мы увеличили этот набор данных для обучения, собрав 207 438 изображений из доступных форм или образцов.

Второй HKR для рукописной казахско-русской базы данных состоял из отдельных слов (или коротких фраз), написанных на русском и казахском языках (около 95% русского и 5% казахского слова/предложения, соответственно). Обратите внимание, что оба языка являются кириллическими написаны и разделяют одни и те же 33 символа. Кроме этих персонажей, в казахском алфавите есть еще 9 специфических символов. Некоторые примеры набора данных HKR показаны ниже:

Некоторые образцы набора данныхНекоторые образцы набора данных

Этот окончательный набор данных был затем разделен на обучающие (70%), валидация (15%) и тестовые (15%) наборы данных. Сам тестовый набор данных был разделен на два субданных (по 7,5% каждый): первый набор данных был назван TEST1 и состоял из слов, которые не были включены в обучающий и проверочный наборы данных; другой субдатасет был назван TEST2 и состоял из слов, которые были включены в обучение набор данных, но полностью различные стили почерка. Основная цель разбиения тестового набора данных на наборы данных TEST1 и TEST2 нужно было проверить разница в точности между распознаванием невидимых слов и слов, видимых на стадии обучения, но с невидимыми стилями почерка.

SimpleHTR модель

Предлагаемая система использует ANN, при этом для извлечения объектов используются многочисленные слои CNN с входной фотографии. Затем выход этих слоев подается в RNN. RNN распространяет информацию через последовательность. Вывод RNN содержит вероятности для каждого символа в последовательности. Для прогнозирования конечного текста реализуются алгоритмы декодирования в выход RNN. Функции CTC отвечают за декодирование вероятностей в окончательный текст. Для повышения точности распознавания декодирование может также использовать языковую модель. CTC используется для получения знаний; выход RNN представляет собой матрицу, содержащую вероятности символов для каждого временного шага. Алгоритм декодирования CTC преобразует эти символические вероятности в окончательный текст. Затем, чтобы повысить точность, используется алгоритм, который продолжает поиск слов в словаре. Однако время, необходимое для поиска фраз, зависит от размеров словаря, и он не может декодировать произвольные символьные строки, включая числа.

Операции: CNN: входные изображения подаются на слои CNN. Эти слои отвечают за извлечение объектов. Есть 5х5 фильтры в первом и втором слоях и фильтры 3х3 в последних трех слоях. Они также содержат нелинейную функцию RELU и максимальный объединяющий слой, который суммирует изображения и делает их меньше, чем входные данные. Хотя высота изображения уменьшается в 2 раза в каждом слое, карты объектов (каналы) добавляются таким образом, чтобы получить выходную карту объектов (или последовательность) размером от 32 до 256. RNN: последовательность признаков содержит 256 признаков или симптомов на каждом временном шаге. Соответствующая информация распространяется РНН через эти серии. LSTM-это один из известных алгоритмов RNN, который переносит информацию на большие расстояния и более эффективное обучение, чем типичные РНН. Выходная последовательность RNN сопоставляется с матрицей 32х80.

CTC: получает выходную матрицу RNN и прогнозируемый текст в процессе обучения нейронной сети, а также определяет величину потерь. CTC получает только матрицу после обработки и декодирует ее в окончательный текст. Длина основного текста и известного текста не должна превышать 32 символов

Модель SimpleHTR, где зеленые значки - это операции, а розовые- потоки данныхМодель SimpleHTR, где зеленые значки - это операции, а розовые- потоки данных

Данные: Входные данные: это файл серого цвета размером от 128 до 32. Изображения в наборе данных обычно не имеют точно такого размера, поэтому их исходный размер изменяется (без искажений) до тех пор, пока они не станут 128 в ширину и 32 в высоту. Затем изображение копируется в целевой образ размером от 128 до 32 дюймов Белый. Затем значения серого цвета стандартизированы, что упрощает процесс нейронной сети.

LineHTR модель

Модель LineHTR - это просто расширение предыдущей модели SimpleHTR, которая была разработана для того, чтобы позволить модели обрабатывать изображения с полной текстовой строкой (а не только одним словом), таким образом, чтобы еще больше повысить точность модели. Архитектура модели LineHTR очень похожа на модель SimpleHTR, с некоторыми различиями в количестве слоев CNN и RNN и размере входных данных этих слоев: она имеет 7 слоев CNN и 2 слоя Bidirectinal LSTM (BLSTM) RNN.

Ниже кратко представлен конвейер алгоритма LineHTR:

  • На входе изображение в градациях серого фиксированного размера 800 x 64 (Ш x В).

  • Слои CNN сопоставляют это изображение в градациях серого с последовательностью элементов размером 100 x 512.

  • Слои BLSTM с 512 единицами отображают эту последовательность признаков в матрицу размером 100 x 205: здесь 100 представляет количество временных шагов (горизонтальных позиций) в изображении с текстовой строкой; 205 представляет вероятности различных символов на определенном временном шаге на этом изображении)

  • Слой CTC может работать в 2 режимах: режим LOSS - чтобы научиться предсказывать правильного персонажа на временном шаге при обучении; Режим ДЕКОДЕР - для получения последней распознанной текстовой строки при тестировании

  • размер партии равен 50

Экспериментальные Материалы

Все модели были реализованы с использованием Python и deep learning библиотеки Tensorflow. Tensorflow позволяет прозрачно использование высоко оптимизированных математических операций на графических процессорах с помощью Python. Вычислительный граф определяется в скрипте Python для определения всех операций, необходимых для конкретных вычислений. Графики для отчета были сгенерированы с помощью библиотеки matplotlib для Python, а иллюстрации созданы с помощью Inkscape-программы векторной графики, аналогичной Adobe Photoshop. Эксперименты проводились на машине с 2-кратным " Intel Процессоры Xeon(R) E-5-2680, 4x " NVIDIA Tesla k20x и 100 ГБ памяти RAM. Использование графического процессора сократило время обучения моделей примерно в 3 раза, однако это ускорение не было тщательно отслежено на протяжении всего проекта,поэтому оно могло варьироваться.

SimpleHTR эксперименты

SimpleHTR модель-это обучение, валидация и тестирование на двух различных датасетах. Для того чтобы запустить процесс обучения модели на наших собственных данных, были предприняты следующие шаги:

Создан словарь слов файлов аннотаций

Файл DataLoader для чтения и предварительного владения набором данных изображений и чтения файла аннотаций принадлежит изображениям

Набор данных был разделен на два подмножества: 90% для обучения и 10% для проверки обученной модели. Для повышения точности и снижения частоты ошибок мы предлагаем следующие шаги: во-первых, увеличить набор данных, используя данные увеличение; во-вторых, добавьте больше информации CNN слоев и увеличение ввода размера; в-третьих, удалить шум на изображении и в скорописи стиле; В-четвертых, заменить ЛСТМ двусторонними ГРУ и, наконец, использование декодера передача маркера или слово поиска луча декодирование, чтобы ограничить выход в словарь слова.

Первый Набор Данных: Для обучения на собранных данных была обработана модель SimpleHTR, в которой есть 42 названия стран и городов с различными узорами почерка. Такие данные были увеличены в 10 раз. Были проведены два теста: с выравниванием курсивных слов и без выравнивания. После изучения были получены значения по валидации данных, представленных в Таблице ниже.

Алгоритм

выравнивание скорописи

нет выравнивания

CER

WAR

CER

WAR

bestpath

19.13

52.55

17.97

57.11

beamsearch

18.99

53.33

17.73

58.33

wordbeamsearch

16.38

73.55

15.78

75.11

Эта таблица показывает точность распознавания SimpleHTR для раличных методов декодирования (bestpath, beamsearch, wordbeamsearch). Декодирование наилучшего пути использует только выход NN и вычисляет оценку, принимая наиболее вероятный символ в каждой позиции. Поиск луча также использует только выход NN, но он использует больше данных из него и, следовательно, обеспечивает более детальный результат. Поиск луча с character-LM также забивает символьные последовательности, которые еще больше повышают исход.

Результаты обучения можно посмотреть на рисунке ниже:

Результаты эксперимента с использованием SimpleHTR (lr=0,01): точность модели.Результаты эксперимента с использованием SimpleHTR (lr=0,01): точность модели.Результаты эксперимента с использованием SimpleHTR (lr=0,01): погрешность модели.Результаты эксперимента с использованием SimpleHTR (lr=0,01): погрешность модели.

На рисунке ниже показано изображение с названием региона, которое было представлено на вход, а на другом рисунке мы видим узнаваемое слово " Южно Казахстанская с вероятностью 86 процентов.

Пример изображения с фразой " Южно-Казахстанская на русском языкеПример изображения с фразой " Южно-Казахстанская на русском языкеРезультат распознаванияРезультат распознавания

Второй набор данных (HKR Dataset): Модель SimpleHTR показала в первом тесте набора данных 20,13% символьной ошибки (CER) и второго набора данных 1,55% CER. Мы также оценили модель SimpleHTR по каждому показателю точности символов(рисунок ниже). Частота ошибок в словах (WER) составил 58,97% для теста 1 и 11,09% для теста 2. Результат например TEST2 показывает что модель может распознавать слова которые существуют в обучающем наборе данных но имеют полностью различные стили почерка. Набор данных TEST1 показывает, что результат не является хорошим, когда модель распознает слова, которые не существуют в обучении и наборы данных проверки.

Следующий эксперимент проводился с моделью LineHTR, обученной на данных за 100 эпох. Эта модель продемонстрировала производительность со средним CAR 29,86% и 86,71% для наборов данных TEST1 и TEST2 соответственно (рисунок ниже). Здесь также наблюдается аналогичная тенденция переобучения обучающих данных.

Заключение

Эксперименты по классификации рукописных названий городов проводились с использованием SimpleHTR и LineHTR на тестовых данных были получены следующие результаты по точности распознавания: 57,1% для SimpleHTR рекуррентного CNN с использованием алгоритмов декодирования с наилучшим путем, 58,3% для Beamsearch и 75,1% wordbeamsearch. Лучший результат был показан для Wordbeamsearch, который использует словарь для окончательной коррекции текст при распознавании.

Подробнее..

Категории

Последние комментарии

  • Имя: Макс
    24.08.2022 | 11:28
    Я разраб в IT компании, работаю на арбитражную команду. Мы работаем с приламы и сайтами, при работе замечаются постоянные баны и лаги. Пацаны посоветовали сервис по анализу исходного кода,https://app Подробнее..
  • Имя: 9055410337
    20.08.2022 | 17:41
    поможем пишите в телеграм Подробнее..
  • Имя: sabbat
    17.08.2022 | 20:42
    Охренеть.. это просто шикарная статья, феноменально круто. Большое спасибо за разбор! Надеюсь как-нибудь с тобой связаться для обсуждений чего-либо) Подробнее..
  • Имя: Мария
    09.08.2022 | 14:44
    Добрый день. Если обладаете такой информацией, то подскажите, пожалуйста, где можно найти много-много материала по Yggdrasil и его уязвимостях для написания диплома? Благодарю. Подробнее..
© 2006-2024, personeltest.ru