Статус: Офлайн
Реєстрація: 23.03.2012
Повідом.: 30648
Реєстрація: 23.03.2012
Повідом.: 30648
Угу. Там в статье это отдмухивается, как перышкоНичего это не обозначает. Люди тысячелетиями обучаются, а работа до сих пор не исчезла. То же и про машины.![]()
В будущем изменения будут только ускоряться. Неразумно продолжать воспринимать будущее подобно прошлому, в котором новые рабочие места будут просто потому, что они всегда были раньше.
Одним из таких применений является создание глубинных нейронных сетей — что-то вроде урезанного виртуального мозга. Они делают возможным машинное обучение, которое совершило невероятные успехи, считавшиеся ранее гораздо более недосягаемыми, если вообще возможными. Как? Причина не только в растущих возможностях наших компьютеров и расширении наших знаний в области нейронаук, но и в стремительно растущих объемах коллективных данных, также известных как большие данные.
Большие данные
Большие данные — это не просто пустые слова. С каждым днем мы создаем все больше и больше информации. Мы производим ее в таких объемах, что по данным отчета SINTEF 2013 года 90% всей информации в мире было создано за последние два года. Этот невероятный показатель удваивается каждые полтора года благодаря Интернету, где в 2015 году каждую минуту мы ставим 4,2 миллиона лайков на Facebook, загружаем 300 часов видео на YouTube и отправляем 350 000 твитов. Все, что мы делаем, генерирует данные как никогда раньше, а большое количество данных — именно то, что нужно машинам для обучения. Почему?
Представьте, что вы программируете компьютер на распознавание стула. Вы вводите в него множество инструкций, а в результате программа все равно распознает стулья в других предметах, а некоторые стулья не распознает. Так как же мы сами научились распознавать стулья? Наши родители показали на стул и сказали, что это «стул». Тогда мы подумали, что со стульями всё ясно, указали пальцем на стол и сказали: «Это стул», и тогда родители сказали, что это «стол». Это называется обучение с подкреплением. Ярлык «стул» связывается с каждым стулом, который мы видим, при этом некоторые нейронные пути нагружаются, а другие — нет. Чтобы в нашем мозгу загорелся «стул», то, что мы видим, должно быть достаточно похожим на стулья, с которыми мы сталкивались ранее. По большому счету, весь наш жизненный опыт — огромный массив данных, пропущенный через наш мозг.
Глубинное обучение
Мощь глубинного обучения состоит в том, что оно позволяет использовать огромные массивы данных для обучения машин без четких инструкций, подобно тому, как делаем это мы. Вместо того, чтобы описать компьютеру «стульность», мы просто подключаем его к интернету и показываем ему миллионы изображений стульев. Тогда он сам получает представление о «стульности». Затем мы тестируем его с помощью других изображений. Когда он ошибается, мы поправляем его, что улучшает его навык распознавания стульев. Повторение этого процесса приводит к тому, что компьютер знает, что такое стул, когда видит его, настолько хорошо, насколько это можем мы. Важное отличие состоит в том, что, в отличие от нас, он может просмотреть миллионы изображений в считанные секунды.
Это сочетание глубинного обучения и больших данных привело к невероятным достижениям за один только прошлый год. Помимо невероятного достижения AlphaGo, ИИ DeepMind от Google научился читать и понимать, что он читает, изучив сотни тысяч новостных статей. DeepMind также самостоятельно научился играть в десятки видеоигр на Atari 2600 лучше, чем человек, просто проверяя счет на экране и раз за разом играя. ИИ под названием Giraffe схожим образом научился играть в шахматы, используя 175 миллионов шахматных позиций, достигнув уровня международного мастера за 72 часа, непрерывно играя с самим собой. В 2015 году ИИ даже смог пройти визуальный тест Тьюринга, обучаясь так, что он смог выявить неизвестную букву в выдуманном алфавите, затем моментально воспроизвести эту букву так, что она была полностью неотличима от написанной в этом же задании человеком. Все это — главные вехи в истории ИИ.
Тем не менее, несмотря на все эти вехи, на вопрос, как скоро компьютер сможет победить выдающегося игрока в го, всего за несколько месяцев до объявления Google о победе AlphaGo эксперты отвечали: «Возможно, в ближайшие 10 лет». Десятилетие казалось оптимистической оценкой, ведь го — игра настолько сложная, что я предоставлю возможность описать ее Кену Дженнингсу из игры Jeopardy, еще одному бывшему чемпиону, сраженному ИИ:
«Хорошо известно, что го более сложна, чем шахматы, со своей огромной доской, более длинными играми и большим количеством фигур. Команда программистов DeepMind любит говорить, что во всей известной Вселенной вариантов игры в го больше, чем атомов, но это значительно занижает задачу вычисления. Позиций при игре в го — 10 в степени 170, тогда как атомов во Вселенной — лишь 10 в степени 80. Это значит, что если существует столько же параллельных Вселенных, сколько существует атомов в нашей (!), общее число атомов во всех этих Вселенных вместе взятых приблизилось бы к числу возможных позиций на гобане»
Такая высокая сложность делает невозможным перебор всех доступных ходов для определения лучшего. Но глубинные нейронные сети обходят этот барьер так же, как и ваш собственный мозг: научившись оценивать ход, который выглядит как лучший. Мы это делаем с помощью наблюдения и практики, и точно так же это делает AlphaGo: анализируя миллионы профессиональных игр и играя с собой миллионы раз. Так что ответ на вопрос, когда го падет перед машиной, не был даже близко к 10 годам. Правильный ответ оказался таким: «В любой момент».
Автоматизация нерутинной работы
В любой момент. Это новый ответ 21-го века на любой вопрос, связанный с тем, когда машины способны научиться делать что-либо лучше человека, и мы должны попытаться осознать это.
Нам надо понять, что значит вторжение экспоненциальных технологических перемен на рынок труда нерутинной работы. Обучающиеся машины означают, что ни одна человеческая работа теперь не в безопасности. От гамбургеров до медобслуживания, машины могут успешно выполнять эти задачи без помощи или с меньшей помощью человека, и дешевле, чем человек.
Amelia — один из ИИ, которые сейчас тестируют в компаниях. Созданная компанией IPsoft на протяжении последних 16 лет, она научилась выполнять работу сотрудников колл-центра. Она может за секунды обучиться тому, что занимает у нас месяцы, и она может выполнять эту работу на 20 языках. И так как она умеет обучаться, со временем она сможет еще больше. В одной компании, где ее тестировали, она успешно обрабатывала каждый десятый вызов за первую неделю, а к концу второго месяца она решала шесть из десяти вопросов. Она может оставить без работы 250 миллионов человек по всему миру.
Viv — ИИ от создателей Siri, который выйдет совсем скоро и будет нашим персональным помощником. Она будет выполнять для нас задачи онлайн и даже будет работать как новостная лента Facebook на стероидах: будет предлагать потреблять медиа, которые по ее мнению нам должно понравиться. Во время этого мы будем видеть гораздо меньше рекламы, и это значит, что вся рекламная индустрия — индустрия, на которой построен весь интернет — ощутимо пошатнется.
Мир с Amelia и Viv и бесчисленным множеством других ИИ, которые совсем скоро придут в онлайн, в комбинации с роботами, такими, как Atlas — творение нового поколения от Boston Dynamics, — это мир, где машины могут выполнить работу любого из четырех типов, а это значит, что грядут серьезные социальные перемены.
Одним из таких применений является создание глубинных нейронных сетей — что-то вроде урезанного виртуального мозга. Они делают возможным машинное обучение, которое совершило невероятные успехи, считавшиеся ранее гораздо более недосягаемыми, если вообще возможными. Как? Причина не только в растущих возможностях наших компьютеров и расширении наших знаний в области нейронаук, но и в стремительно растущих объемах коллективных данных, также известных как большие данные.
Большие данные
Большие данные — это не просто пустые слова. С каждым днем мы создаем все больше и больше информации. Мы производим ее в таких объемах, что по данным отчета SINTEF 2013 года 90% всей информации в мире было создано за последние два года. Этот невероятный показатель удваивается каждые полтора года благодаря Интернету, где в 2015 году каждую минуту мы ставим 4,2 миллиона лайков на Facebook, загружаем 300 часов видео на YouTube и отправляем 350 000 твитов. Все, что мы делаем, генерирует данные как никогда раньше, а большое количество данных — именно то, что нужно машинам для обучения. Почему?
Представьте, что вы программируете компьютер на распознавание стула. Вы вводите в него множество инструкций, а в результате программа все равно распознает стулья в других предметах, а некоторые стулья не распознает. Так как же мы сами научились распознавать стулья? Наши родители показали на стул и сказали, что это «стул». Тогда мы подумали, что со стульями всё ясно, указали пальцем на стол и сказали: «Это стул», и тогда родители сказали, что это «стол». Это называется обучение с подкреплением. Ярлык «стул» связывается с каждым стулом, который мы видим, при этом некоторые нейронные пути нагружаются, а другие — нет. Чтобы в нашем мозгу загорелся «стул», то, что мы видим, должно быть достаточно похожим на стулья, с которыми мы сталкивались ранее. По большому счету, весь наш жизненный опыт — огромный массив данных, пропущенный через наш мозг.
Глубинное обучение
Мощь глубинного обучения состоит в том, что оно позволяет использовать огромные массивы данных для обучения машин без четких инструкций, подобно тому, как делаем это мы. Вместо того, чтобы описать компьютеру «стульность», мы просто подключаем его к интернету и показываем ему миллионы изображений стульев. Тогда он сам получает представление о «стульности». Затем мы тестируем его с помощью других изображений. Когда он ошибается, мы поправляем его, что улучшает его навык распознавания стульев. Повторение этого процесса приводит к тому, что компьютер знает, что такое стул, когда видит его, настолько хорошо, насколько это можем мы. Важное отличие состоит в том, что, в отличие от нас, он может просмотреть миллионы изображений в считанные секунды.
Это сочетание глубинного обучения и больших данных привело к невероятным достижениям за один только прошлый год. Помимо невероятного достижения AlphaGo, ИИ DeepMind от Google научился читать и понимать, что он читает, изучив сотни тысяч новостных статей. DeepMind также самостоятельно научился играть в десятки видеоигр на Atari 2600 лучше, чем человек, просто проверяя счет на экране и раз за разом играя. ИИ под названием Giraffe схожим образом научился играть в шахматы, используя 175 миллионов шахматных позиций, достигнув уровня международного мастера за 72 часа, непрерывно играя с самим собой. В 2015 году ИИ даже смог пройти визуальный тест Тьюринга, обучаясь так, что он смог выявить неизвестную букву в выдуманном алфавите, затем моментально воспроизвести эту букву так, что она была полностью неотличима от написанной в этом же задании человеком. Все это — главные вехи в истории ИИ.
Тем не менее, несмотря на все эти вехи, на вопрос, как скоро компьютер сможет победить выдающегося игрока в го, всего за несколько месяцев до объявления Google о победе AlphaGo эксперты отвечали: «Возможно, в ближайшие 10 лет». Десятилетие казалось оптимистической оценкой, ведь го — игра настолько сложная, что я предоставлю возможность описать ее Кену Дженнингсу из игры Jeopardy, еще одному бывшему чемпиону, сраженному ИИ:
«Хорошо известно, что го более сложна, чем шахматы, со своей огромной доской, более длинными играми и большим количеством фигур. Команда программистов DeepMind любит говорить, что во всей известной Вселенной вариантов игры в го больше, чем атомов, но это значительно занижает задачу вычисления. Позиций при игре в го — 10 в степени 170, тогда как атомов во Вселенной — лишь 10 в степени 80. Это значит, что если существует столько же параллельных Вселенных, сколько существует атомов в нашей (!), общее число атомов во всех этих Вселенных вместе взятых приблизилось бы к числу возможных позиций на гобане»
Такая высокая сложность делает невозможным перебор всех доступных ходов для определения лучшего. Но глубинные нейронные сети обходят этот барьер так же, как и ваш собственный мозг: научившись оценивать ход, который выглядит как лучший. Мы это делаем с помощью наблюдения и практики, и точно так же это делает AlphaGo: анализируя миллионы профессиональных игр и играя с собой миллионы раз. Так что ответ на вопрос, когда го падет перед машиной, не был даже близко к 10 годам. Правильный ответ оказался таким: «В любой момент».
Автоматизация нерутинной работы
В любой момент. Это новый ответ 21-го века на любой вопрос, связанный с тем, когда машины способны научиться делать что-либо лучше человека, и мы должны попытаться осознать это.
Нам надо понять, что значит вторжение экспоненциальных технологических перемен на рынок труда нерутинной работы. Обучающиеся машины означают, что ни одна человеческая работа теперь не в безопасности. От гамбургеров до медобслуживания, машины могут успешно выполнять эти задачи без помощи или с меньшей помощью человека, и дешевле, чем человек.
Amelia — один из ИИ, которые сейчас тестируют в компаниях. Созданная компанией IPsoft на протяжении последних 16 лет, она научилась выполнять работу сотрудников колл-центра. Она может за секунды обучиться тому, что занимает у нас месяцы, и она может выполнять эту работу на 20 языках. И так как она умеет обучаться, со временем она сможет еще больше. В одной компании, где ее тестировали, она успешно обрабатывала каждый десятый вызов за первую неделю, а к концу второго месяца она решала шесть из десяти вопросов. Она может оставить без работы 250 миллионов человек по всему миру.
Viv — ИИ от создателей Siri, который выйдет совсем скоро и будет нашим персональным помощником. Она будет выполнять для нас задачи онлайн и даже будет работать как новостная лента Facebook на стероидах: будет предлагать потреблять медиа, которые по ее мнению нам должно понравиться. Во время этого мы будем видеть гораздо меньше рекламы, и это значит, что вся рекламная индустрия — индустрия, на которой построен весь интернет — ощутимо пошатнется.
Мир с Amelia и Viv и бесчисленным множеством других ИИ, которые совсем скоро придут в онлайн, в комбинации с роботами, такими, как Atlas — творение нового поколения от Boston Dynamics, — это мир, где машины могут выполнить работу любого из четырех типов, а это значит, что грядут серьезные социальные перемены.
А еси супер-ИИ будет создавать подходящего робота через сутки после появления новой работы? Раз процесс познания такой большой, то и ИИ сможет познавать бесконечноые объемы информации, а возможности компьютера в вычислениях будут ставать еще побольше человеческих.Процесс познания бесконечен, следовательно бесконечен процесс обучения. То есть всегда и всем найдётся работа, и не всегда она будет всем нравиться.![]()



