Статус:
Offline
Реєстрація: 04.01.2023
Повідом.: 4629
Реєстрація: 04.01.2023
Повідом.: 4629
Не знаю. Ожидайте ответа компетентных лиц.На форумі яка?
Перегляньте відео нижче, щоб дізнатися, як встановити наш сайт як веб-програму на головному екрані.
Замітка: Для цієї функції наразі потрібен доступ до сайту за допомогою вбудованого браузера Safari.
Не знаю. Ожидайте ответа компетентных лиц.На форумі яка?
Вроде как gpt-3.5-turboЯка версія GPT на форумі? Остання по моєму GPT-3.
Это если использовать вот это APIЧетвёрка в бета-версии уже была (не пробовал)
Ага-ага. Он такую хуйню выдает, что пользоваться гуглем просто необходимо, чтобы свериться, ибо иначе его бред за чистую монету можно принять.Посмотрел я на этот GPT пару дней и понял что через несколько лет люди будут пользоваться Google в разы меньше, да вообще чистый web сильно просядет. Все будут спрашивать у ИИ напрямую с телефона - рецепт блинов, расписание самолётов, напомни актера лысого, где ближайшая химчистка. Только не тупая Сири будет. Сделают авторизацию для оплат - появятся покупки. Добавят голос и будут диалоги: «поговори со мной о любви, устрой собеседование, повтори со мной глаголы на английском, объясни теорему, не понял, подробно объясни.»
Останутся кончено приложения - ТикТок, Инстаграмм, Телеграмм, Фейсбук, но вот чистый веб будет терять.
Уменьшение кол-ва сайтов повлечёт спад ИТ. Будут меньше покупать домены, делать сайты, покупать хостинги, заказывать дизайн и т.д. и т.п.
Программирование- да, бо там шаблоны. Меданализы -аналогично, там шаблоны. По физике и химии пишет лютейший бред, хотя мог бы шаблонов набраться -но отсутствие понимания (мыслить он не умеет) препятствует этому. Тема про изотопы, где я егозадрачивал -яркий пример. В математике 50/50. Иногда верно решил, иногда делает ошибку, которую не сделал бы второклассник.Вот! Об этом и говорю, ИИ решает быстрее определенные задачи, программирование, математика, физика, химия, даже медицинские анализы. Вот его главное предназначение.
Пока да. Он сказал что Некрасов был первым мэром ХарьковаАга-ага. Он такую хуйню выдает
Проблема в том, что он не умеет мыслить. У него нет интеллектаПока да. Он сказал что Некрасов был первым мэром Харькова
https://www.kharkovforum.com/threads/kto-samyj-ludshij-mehr-xarkova.5425825/#post-71138830
Пока речь не идёт про интеллект, и вряд-ли будет идти, это нейросеть...У него нет интеллекта
Тут согласен. И потому мне кажется странным эти протесты против развития ИИ -один хрен думать он не цмеет и тот путь который выбран, он к мышлению не приведет. То что там сколько-то рабочих мест будет потеряно -это херня. Люди, их занимающие тоже не умеют думать и тоже имитируют мыслительную деятельность. Просто ИИ имитирует лучше.Пока речь не идёт про интеллект, и вряд-ли будет идти, это нейросеть...
Для изученяи программирования мне нравится дажу еже то что есть сейчас.
Ага-ага. Он такую хуйню выдает, что пользоваться гуглем просто необходимо, чтобы свериться, ибо иначе его бред за чистую монету можно принять.
Модель накапливает отчеты по правильным/не правильным ответам. Были раньше или нет, не помню, но сейчас справа есть кнопки лайк/дизлайк. Соответственно по наводящим вопросам, когда он придет к удовлетворяющему ответу от пользователя, он будет отталкиваться уже от последнего (с лайком) и он уже станет для него первым, стартовым ответом на вопрос следующих пользователей. Ранее писал, что таким образом тренировали Гугл, когда на "хуйло" он показывал путина, или переводил в транслейте с украинского на русский. Модель тренируема. Не сказать, что он прям думает, но алгоритм имеет место развития.один хрен думать он не умеет
Он может отупить. Ни кого не хочу обидеть, но когда люди задают вопросы, по-типу "как приготовить бутерброд", а он что-то отвечает, и пусть даже 100% идеально, то постепенно совершенно все вопросы перерастут в консультацию с ИИ.он к мышлению не приведет
Нет. Совершенствование алгоритма -это не развитие мышлениея. Это совершенствование алгоритма поиска ответа. не более того. Не выходит он за рамки шаблонов и накопленного опыта и не может выйти.Модель накапливает отчеты по правильным/не правильным ответам. Были раньше или нет, не помню, но сейчас справа есть кнопки лайк/дизлайк. Соответственно по наводящим вопросам, когда он придет к удовлетворяющему ответу от пользователя, он будет отталкиваться уже от последнего (с лайком) и он уже станет для него первым, стартовым ответом на вопрос следующих пользователей. Ранее писал, что таким образом тренировали Гугл, когда на "хуйло" он показывал путина, или переводил в транслейте с украинского на русский. Модель тренируема. Не сказать, что он прям думает, но алгоритм имеет место развития.
Он может отупить. Ни кого не хочу обидеть, но когда люди задают вопросы, по-типу "как приготовить бутерброд", а он что-то отвечает, и пусть даже 100% идеально, то постепенно совершенно все вопросы перерастут в консультацию с ИИ.
Те же мед показатели, если врач и анализы скажут, например, точно грипп, а ИИ назовет это "танзанийской морской трясучкой вызванной следами яда черной змеи", то как бы "умный" юзер поверит во второй вариант и примет меры.
Машина по другому и не сможет, его опыт с помощью юзера и будет таким образом двигать вперед.Совершенствование алгоритма -это не развитие мышлениея. Это совершенствование алгоритма поиска ответа. не более того. Не выходит он за рамки шаблонов и накопленного опыта и не может выйти.
Пример с врачом это один из. Каждый "умный юзер" он еще ж немного и плоскоземельщик, массононенавистник, антипрививочник и верующий в больших жидорептилоидов. Что это значит, выше, будет юзать и этот тул для каждого вопроса и засыпаться в сомнениях, кто же ему таки врет. ИИ должен помочь человеку стать умнее, делать некоторую работу быстрее, выполнять более сложные задачи. Большинство не может сформулировать как использовать этот инструмент. В рабочих руках ИИ может отупить так, предположим, что он дает верные ответы на задачи. Отключаем ИИ. Что получает такой пользователь? "Блин, а я не помню как ручками это сделать".то такому врачу тоже не стоит доверять.
Верно. Машина никогда не начнет думать. Нет способности к синтезу, к генерации нового не на основании опыта.Машина по другому и не сможет, его опыт с помощью юзера и будет таким образом двигать вперед.
Так я жи говорю. Если человек не спрашивает - "а почему именно так?", то этот человек уже тупой. Не важно общается он с человеком-специалистом (врачом например) или с ИИ. ИИ тут ничего не меняет.Пример с врачом это один из. Каждый "умный юзер" он еще ж немного и плоскоземельщик, массононенавистник, антипрививочник и верующий в больших жидорептилоидов. Что это значит, выше, будет юзать и этот тул для каждого вопроса и засыпаться в сомнениях, кто же ему таки врет. ИИ должен помочь человеку стать умнее, делать некоторую работу быстрее, выполнять более сложные задачи. Большинство не может сформулировать как использовать этот инструмент. В рабочих руках ИИ может отупить так, предположим, что он дает верные ответы на задачи. Отключаем ИИ. Что получает такой пользователь? "Блин, а я не помню как ручками это сделать".
З яких пір генерація нового це думання?Верно. Машина никогда не начнет думать. Нет способности к синтезу, к генерации нового не на основании опыта.
Нук если несподивано -то автор таки дурак. а вообще человек при мышлении каждую секунду строит новую модель с разными идеями. Если он думает, бо 95% людей идиоты и думать не умеют.З яких пір генерація нового це думання?
Уся генерація нового падає як здрасьте серед ночі, несподівано для "автора".
Називається ідея. Ідея завжди приходить, сама, її нефіга не надумаєш.
А "думання" це тонна в секунду безпросвітної нікому не потрібної ахінеї.
В самому визначенні немає відповіді, що воно таке "думання". Це на стику науки і філософії. Аналіз, синтез - це просто формування рішення на базі досвіду.Нук если несподивано -то автор таки дурак. а вообще человек при мышлении каждую секунду строит новую модель с разными идеями. Если он думает, бо 95% людей идиоты и думать не умеют.
Идей всегда как говна, они ценности не имеют.
Мышление -это способность к анализу и синтезу. Так вот способность к анализу у него хоть и в зачаточном состоянии, но есть. А способность к синтезу отсутствует полностью и никаких признаков не наблюдается.