Адрес для входа в РФ: exler.wiki

Как вы выбираете модель ChatGPT?

10.02.2025 09:00  7574   Комментарии (168)

Как известно, у ChatGPT есть несколько разных моделей. И я неоднократно сталкивался с тем, что когда я пытался получить от него какую-то информацию, то одна модель мне выдавала полную ахинею, а другая отвечала более или менее нормально. (Также бывали случаи, когда все модели выдавали всякую ахинею.)

Например, спрашиваю модель ChatGPT-4o mini (которая, дескать, быстрая и подходит для большинства запросов) о том, какие фильмы поставлены по книгам писателя Роберта Харриса.

В ответ получаю вот такое.

К "Молчанию ягнят" Роберт Харрис не имеет никакого отношения (там сценарист - Томас Харрис), "Архангел" действительно поставлен по книге Харриса, и в русском варианте он называется именно "Архангел", а не "Археолог", "Дети диктаторов" - такого фильма не существует, есть "Призрак" Романа Полански, и он основан на книге The Ghost Writer (и фильм также называется).

Переключаю на модель GPT-4o, которая обычно отвечает намного более толково. 

Вот у нее - что-то похожее на правду. Вполне толково назвала, но, правда, всего три экранизации из семи.

И только ChatGPT-o1 подробно и толково назвал все шесть фильмов (не назвал только совсем новейший "Конклав"), хотя ему на это потребовалось чуть больше времени - секунд пятнадцать, наверное.

Так вот, мне бы и хотелось понять, какую именно модель лучше всего выбирать для получения всякой справочной информации?

Ниже - ответ модели o1.


Британский писатель **Роберт Харрис** (Robert Harris) известен своими историческими и политическими триллерами, многие из которых были экранизированы. Ниже приведён список основных фильмов, снятых по его романам:

---

## 1. «Фатерлянд» (Fatherland, 1994)  
- **Формат**: телефильм HBO  
- **Роман**: *Fatherland* (1992)  
- **Кратко о сюжете**: Альтернативная история, где нацистская Германия выиграла Вторую мировую войну. Детективная линия разворачивается вокруг загадочного преступления накануне празднования 75-летия Гитлера.  
- **В главных ролях**: Рутгер Хауэр, Миранда Ричардсон.


---

## 2. «Энигма» (Enigma, 2001)  
- **Роман**: *Enigma* (1995)  
- **Кратко о сюжете**: В центре истории – группа британских криптографов в Блетчли-парке во время Второй мировой войны, занимающихся взломом шифровальной машины «Энигма».  
- **Режиссёр**: Майкл Эптид  
- **В главных ролях**: Дугрей Скотт, Кейт Уинслет, Джереми Нортэм.

---

## 3. «Архангел» (Archangel, 2005)  
- **Формат**: телефильм (BBC)  
- **Роман**: *Archangel* (1998)  
- **Кратко о сюжете**: Британский историк прибывает в Россию и обнаруживает секреты, связанные с Иосифом Сталиным и его возможным «наследником».  
- **В главной роли**: Дэниел Крэйг.

---

## 4. «Призрак» / «Писатель-призрак» (The Ghost Writer, 2010)  
- **Роман**: *The Ghost* (2007)  
- **Кратко о сюжете**: Писателя нанимают для написания мемуаров бывшего премьер-министра Великобритании, однако безобидная работа превращается в опасное расследование.  
- **Режиссёр**: Роман Полански  
- **В главных ролях**: Юэн Макгрегор, Пирс Броснан, Ким Кэттролл.

---

## 5. «Офицер и шпион» (An Officer and a Spy / J’accuse, 2019)  
- **Роман**: *An Officer and a Spy* (2013)  
- **Кратко о сюжете**: Фильм об «деле Дрейфуса» во Франции конца XIX века. Подполковник Пикар решает докопаться до правды, когда замечает несостыковки в обвинении капитана Дрейфуса в шпионаже.  
- **Режиссёр**: Роман Полански  
- **В главных ролях**: Жан Дюжарден, Луи Гаррель.

---

## 6. «Мюнхен: На грани войны» (Munich: The Edge of War, 2021)  
- **Платформа**: Netflix  
- **Роман**: *Munich* (2017)  
- **Кратко о сюжете**: Действие разворачивается в 1938 году в преддверии подписания Мюнхенского соглашения. Британский дипломат и немецкий чиновник пытаются предотвратить новую войну.  
- **Режиссёр**: Кристиан Швохов  
- **В главных ролях**: Джордж Маккей, Джейнис Ньюонер, Джереми Айронс.

---

Все перечисленные экранизации отражают характерные черты творчества Роберта Харриса – детальную историческую основу, острую политическую интригу и напряжённый сюжет.

10.02.2025 09:00
Комментарии 168

11.02.25 14:44
0 0

Я пользуюсь Abacus-ом, которыхй собрал в себе все известные модели (моя реферальная ссылка).

И такой ответ получил от него.
........
По книгам Роберта Харриса снято несколько фильмов, охватывающих различные жанры, от исторических драм до триллеров. Вот список экранизаций его произведений:

1. "Фатерлянд" (1994)
Экранизация романа "Фатерланд", альтернативной истории, где Германия победила во Второй мировой войне. Фильм был снят для телевидения.

2. "Энигма" (2001)
Фильм рассказывает о дешифровальщиках в Блетчли-Парке во время Второй мировой войны. Основан на одноименном романе Харриса.

3. "Архангел" (2005)
Экранизация романа "Архангел", в котором историк раскрывает тайны, связанные с Иосифом Сталиным. Фильм был снят в формате мини-сериала.

4. "Призрак" (2010)
Основан на романе "Призрак" (The Ghost). Политический триллер о писателе, нанятом для написания мемуаров бывшего премьер-министра Великобритании. Режиссером выступил Роман Полански.

5. "Офицер и шпион" (2019)
Фильм, основанный на романе "Офицер и шпион", рассказывает о деле Дрейфуса, скандале во Франции конца XIX века. Режиссером также стал Роман Полански.

6. "Мюнхен: На грани войны" (2021)
Экранизация романа "Мюнхен". Историческая драма о событиях, связанных с Мюнхенским соглашением 1938 года.

7. "Конклав" (2024)
Фильм, основанный на романе "Конклав", рассказывает о политических интригах в Ватикане во время выборов нового папы. В главных ролях снялись Рэйф Файнс и Стэнли Туччи.

Эти фильмы демонстрируют разнообразие тем, которые исследует Роберт Харрис, от исторических событий до политических интриг.
11.02.25 09:25
0 0

Наш африканский наркоман собрался купить Open AI aka Chat GPT. Пропал калабуховский дом. Будет как с твиттером.

Если купит сразу подписки сменю.
11.02.25 08:05
1 0

Эти машинки и сами склонны к фантазиям, и с проверкой истинности добытой информацией не особенно парятся. Зачастую им нужно прямо указать, что не фанфики нужны, а реальные факты. А то может выдать то, что называется в индустрии галлюцинациями.
www.ibm.com

Надо заметить, что работают они следующим образом. После переваривания всего напечатанного в Интернете такая машинка получает напечатанное задание, так называемый промпт. Она должна выдать наиболее вероятный текст, слово за словом, соответствующий полученному запросу, то есть самое вероятное, что в таком случае можно найти в Интернете. Как видите, насчет истины в её настройках ничего нет.

Приведу пример из своего опыта. Англоязычных оригинальных книжек про Гарри Поттера в Интернете почти нет, сейчас всякого рода автоматизированные кроулерс везде ползают и охраняют авторское право. Так что когда спросила, как там умер главный злодей, то получила ответ из сочинений графоманствующих деятелей, которым тоже хочется написать про Гарри Поттера, явно неверный. Они пишут удивительную чушь, никому не нужную, в огромных количествах и публикуют в Интернете. Их завирания более вероятны, чем настоящие книги.
11.02.25 03:15
0 1

Так что когда спросила, как там умер главный злодей, то получила ответ из сочинений графоманствующих деятелей, которым тоже хочется написать про Гарри Поттера, явно неверный.
Нужно давать граничащие условия. Чем уже рамки, тем качественнее ответ. Можно попросить дать ответ только из книг но не из других источников и сказать что не знает ответ если не уверен.
11.02.25 16:38
0 0

Да это был пример, откуда и как все эти АИ черпают информацию. Мне в вышеприведённом случае оказалось проще взять книгу из библиотеки. Благо теперь для этого есть приложения, работающие с подавляющим большинством библиотек США, и можно это сделать, не вставая из-за компьютера. На выбор, электронную версию или аудио. (А потом она сама, своими ножками чапает обратно в библиотеку в положенное время... Никаких забытых книжек!!!)

Вот, скажем, математические теоремы машинка дает с пропусками, потому что в сети они часто подаются в облегченном виде. Хотя, казалось бы, могла бы глянуть в Вики. Но даже там теорема может быть не в чистом виде, а с предваряющими объяснениями, где содержатся условия для выполнения, и их нужно правильно извлечь. При этом если спросить, какой учебник или монографию ставить в библиографию статьи для цитирования результата, то выдает весьма хороший список. Потому что этого добра в Интернете - навалом. Например, черновики статей на arxiv.org или описания маткурсов для студентов универов и аспирантов.

Теперь, кстати, в Интернете есть хороший источник для ответа на изначальный вопрос Алекса.
11.02.25 19:19
0 0

Я про кино не спрашиваю, только айтишные задачи, в основном накодить что-то или разгрести логи и дать подсказку, куда копать.

Всегда 4o. Не знаю, зачем нужны другие.
Пробовал просто 4, отвечает хуже
11.02.25 02:50
0 2

Всегда 4o. Не знаю, зачем нужны другие.
Затем, чтобы например решать задачи который этот модель решить не умеет.
11.02.25 02:55
0 0

В таком общем виде, без конкретных примеров, этот комментарий идеален в своей бессмысленности.

ИИ бы справился лучше.
11.02.25 03:19
0 0

ИИ не справляется. Зададите ему следующий вопрос:

Provide three different solutions of 3x3 magic square where each number is a distinct prime. Don't use documented or already existing solution, come up with your own. Also, for three different solutions, each must contain unique set of numbers and each solution must be unique, not just re-arrangement of numbers from the previous solution. If you can't come up with a solutions or just one solution - explain why.

Напишите здесь результат.
11.02.25 03:52
0 0

Напишите здесь результат.
Магический квадрат 3x3 — это сетка чисел, в которой суммы чисел в каждом ряду, каждом столбце и обеих диагоналях одинаковы. Для решения задачи, где все числа в магическом квадрате должны быть простыми, нужно учесть несколько важных моментов.
1. Простые числа — это числа, большие 1, которые делятся только на 1 и на себя.
2. Для квадрата 3x3 необходимо, чтобы сумма чисел в ряду, столбце и диагонали была одинаковой, то есть сумма всех чисел должна делиться на 3 (так как 3 строки). Однако простые числа вряд ли будут равномерно распределены, чтобы сумма по всем строкам, столбцам и диагоналям совпадала.
3. Простые числа не равномерно распределены, что делает задачу еще более сложной.
Применив эти соображения, я, скорее всего, не смогу создать три уникальных магических квадрата 3x3 с простыми числами, в которых соблюдены все условия (равенство сумм по рядам, столбцам и диагоналям). Причина в том, что существует лишь ограниченное количество простых чисел, и они не так поддаются распределению, чтобы удовлетворять условиям магического квадрата.
На основе этого утверждения, могу предложить одно решение (если оно возможно), но найти три различных уникальных решения с простыми числами — маловероятно.
Позвольте мне попытаться предложить одно решение для магического квадрата 3x3, используя простые числа:
Решение:
```
5 11 17
19 13 3
7 3 23
```
Здесь все числа простые, но это не дает гарантии, что это решение будет правильным, и для других вариантов могут возникнуть сложности.
11.02.25 04:48
0 0

Решение:
```
5 11 17
19 13 3
7 3 23
```
5+13+23=41
17+13+7=37
Wrong!


Причина в том, что существует лишь ограниченное количество простых чисел
На основе этого утверждения, могу предложить одно решение (если оно возможно), но найти три различных уникальных решения с простыми числами — маловероятно
Таких решении столько, сколько и простых чисел.

Euclid's theorem
Euclid's theorem is a fundamental statement in number theory that asserts that there are infinitely many prime numbers. It was first proven by Euclid in his work Elements. There are several proofs of the theorem.
11.02.25 04:55
0 0

Кодите на чём?
11.02.25 19:37
0 0

Java/Kotlin.
Но нейросети вроде не особо важно, ей надо уточнить, какой язык, она будет на нём делать
11.02.25 20:01
0 0

Спасибо!
Однажды попалась с питоном, потому что, как выяснилось, примеры были из модуля в процессе отработки. Девы его обновили, и методы перевели в другой подмодуль, причем еще не все опции работали. А большинство примеров кода в Интернете были на предыдущую версию.
11.02.25 21:19
0 0

Для лёгкого шкодирования по сей день 4turbo.
У просто четверки входных токенов сильно меньше, 4о мне дает результат гораздо хуже (а omini вообще ниачём). Надо бы попробовать о1 и о3 (и ассистентов) , да всё некогда.... 😒
Для факт-чекинга афаик ничего не годится (пока)
11.02.25 00:35
0 0

o3 - но за это платить надо $20/месяц и количество промптов ограничего 100 в неделю.
10.02.25 20:51
0 0

20 долларов в месяц - это большая проблема?Офигеть.
11.02.25 08:08
1 0

Проблема в ограничении в 100 промптов и размер контекстного окна.
11.02.25 16:35
0 0

Алекс, не доводилось ли поиграться с музыкальным ИИ Riffusion? Пишет музыку по словесному описанию (стиль, темп, настроение, какой вокал, инструменты). Можно свой текст подсунуть, разбить на куплеты, припевы, проигрыши. Понимает русский.
Результат поражает просто. Попсе точно наступила кабзда.
10.02.25 19:44
0 0

Еще не игрался, но поиграюсь, спасибо.
10.02.25 20:47
0 1

ответ от Gemini
По произведениям Роберта Харриса снято несколько фильмов. Вот некоторые из них:

Фатерлянд (1994)
Действие фильма разворачивается в альтернативной истории, где Германия выиграла Вторую мировую войну. В центре сюжета - следователь, который обнаруживает улики, свидетельствующие о нацистских преступлениях.

Энигма (2001)
Фильм рассказывает историю о британских криптографах, которые пытаются расшифровать немецкий код "Энигма" во время Второй мировой войны.

Архангел (2005)
Бывший историк Кристофер Келсо оказывается втянут в опасное расследование после того, как получает дневник Сталина.

Призрак (2010)
Наемный писатель, работающий над мемуарами бывшего премьер-министра Великобритании, раскрывает опасные секреты, которые угрожают его жизни.

Офицер и шпион (2019)
Фильм основан на реальной истории Альфреда Дрейфуса, французского офицера, обвиненного в шпионаже в пользу Германии.

Мюнхен: На грани войны (2021)
Осенью 1938 года британский премьер-министр Невилл Чемберлен изо всех сил пытается предотвратить войну с Германией и встречается с Гитлером в Мюнхене.
10.02.25 19:03
1 1

Потому что нейросети это не справочники.
Если нужно для работы и важна точность и достоверность, то только свой RAG по своей теме строить.
Если же выбирать именно модели что бы хоть как то близко к правде, то это Claude Sonet 3.5 октябрь 24.
10.02.25 17:19
0 3

Удобный чистильщик/форматтер выдачи ChatBlaBla:
shir-man.com
10.02.25 16:42
0 2

Удобный чистильщик/форматтер выдачи ChatBlaBla:shir-man.com
Это же механизм работы с текстом. Я спрашивал совсем не об этом.
10.02.25 16:48
0 0

Это ещё один полезный патрон в обойму. Всем.
10.02.25 20:30
0 0

Как вы выбираете модель ChatGPT?
Простого ответа на это, пожалуй, нет. Тут помогает понимание принципов работы (а также слежение за новостями в области). А обычному пользователю действительно сложно - наверно мало кто если спросить на улице знает в чем разница межу "4o" и "o3", и при чем тут "o1" 😉 Поэтому все чаще звучат предложения сделать автовыбор модели - наверно так скоро и сделают. Лично у меня этой проблемы нет, но поделиться простым методом выбора наверно не получится. А если учесть, что даже более мощные (дорогие) модели не всегда лучше справляются с некоторыми видами задач, по сравнению с более простыми (дешевыми) то и вообще.
10.02.25 16:23
0 0

обычному пользователю действительно сложно
...тем более, что далеко не все понимают разницу: межу обученной языковой моделью (то что сейчас называют ИИ в основном) и обычным поисковиком - вроде ж и те и те выдают факты на запрос. А если взять языковую модель, подключенную к поисковику - ситуация становится еще более сложной для понимания 😉

Ollama спасёт отца русской демократии. И найдёт полезное применение избыточной мощности его десктопа.
10.02.25 15:50
0 1

Для работы - только o1. В основном ищу информацию по ядру Linux и разнообразных open-source компонентам, прошу найти эффективные решения на Go для частных задач, специфические SQL запросы и прочие инженерные вопросы. Время ответа часто превышает 30 сек, но это лучше, чем 5 минут разбираться с частыми галлюцинациями 4o.
10.02.25 14:10
0 0

специфические SQL запросы
Я никак не могу понять как можно задать вопрос по sql ИИ-шке. Ведь для того, чтобы он мог ответить, он должен знать БД, содержимое БД, размеры этого содержимого и еще кучу разных параметров. Каким образом ты умудряешься задать ему вопрос про SQL?
10.02.25 15:31
0 1

Ну так надо это все описать в вопросе.
10.02.25 15:32
0 2

Я никак не могу понять как можно задать вопрос по sql ИИ-шке. Ведь для того, чтобы он мог ответить, он должен знать БД, содержимое БД, размеры этого содержимого и еще кучу разных параметров. Каким образом ты умудряешься задать ему вопрос про SQL?
накидать простой запрос со связями можно быстро самому. А вот если надо что-то посложнее, можешь кинуть ему свой запрос и объяснить, что с ним надо сделать дополнительно.
В каких-то случаях я ему просто кидал скриншот, где видны названия полей и просил сделать какую-то выборку
10.02.25 16:06
0 0

едь для того, чтобы он мог ответить, он должен знать БД, содержимое БД, размеры этого содержимого и еще кучу разных параметров.
Просто описываешь это ему, как уже заметили выше. Это как спрашивать - как он может сгенерировать код для работы, если он не знает моего проекта? Ну так надо дать ему контекст: некоторые куски уже существующего в проекте кода, чтобы он понял о чем речь и вписал свое решение в уже существующее. Тут правда всплывают темы секьюрити и копирайта, но это уже другая история 😉

Ну так надо это все описать в вопросе.
"...В чём измеряется электрический ток - уж не в амперах ли?"
10.02.25 21:13
0 0

"Восемнадцать созданий возникли перед Ответчиком - они не пришли и не
прилетели, а просто появились. Поеживаясь в холодном блеске звезд, они
ошеломленно смотрели на подавляющую грамаду Ответчика.
- Если нет расстояния, - спросил один, - то как можно оказаться в
других местах?
Ответчик з н а л, что такое расстояние и что такое другие места, но не
мог ответить на вопрос. Вот суть расстояния, но она не такая, какой
представляется этим существам. Вот суть мест, но она совершенно отлична от
их ожиданий.
- Перефразируйте вопрос, - с затаенной надеждой посоветовал Ответчик."

Ведь для того, чтобы он мог ответить, он должен знать БД, содержимое БД, размеры этого содержимого и еще кучу разных параметров.
С помощью какого-нибудь DESCRIBE собираю схемы таблиц, для которых нужно сделать сложный запрос и скармливаю ChatGPT вместе с подробным человеческим описанием что нужно сделать. На выходе получаю работающий запрос. Разумеется, нужно внимательно тестировать. На уровне логики могут быть галлюцинации.
11.02.25 02:39
0 0

GPT-4o прекрасно подходит на роль интерактивной википедии — большинство понятий и концепций оно может объяснить на разном уровне, как закажешь. Факты может перевирать — как человек, который принципы помнит, а факты забывает. Вот я, например, книги Харриса читал много, а фильм посмотрел только "Конклав". А про остальное буду додумывать, вдруг что-то вспомнится.
O1 отличается тем, что долго думает, оценивая свои ответы, и только потом выдает оптимальный результат.
Если их сравнивать, то gpt-4o это "Брейн-ринг", а o1 — "Что?Где?Когда?".

При этом, если включить в gpt-4o поиск, то шансов на качественный ответ больше — оно сходит и может найти даже очень свежие результаты.

Perplexity с этим справляется даже лучше, поскольку даже новости часовой давности может прочитать.
Прикольно, что галлюцинации это не отменяет 😊 .
10.02.25 13:24
0 4

😁👌
10.02.25 13:34
0 0

Так вот, чем Вы последнее время занимались - буквы считали!
10.02.25 16:28
0 0

Для подобных задач на сегодняшний день один из лучших вариантов - Perplexity.
Ищет в сети, обобщает и обрабатывает информацию и выдаёт в нужном виде со ссылками на источники.

Вот результат, который Perplexity выдал с первого подхода, без уточнений и понуканий:
www.perplexity.ai
10.02.25 13:05
1 0

Интересно, спасибо. Но, например, на этот вопрос он выдал только один вариант из трех.
10.02.25 13:29
0 1

Perplexity несомненно хорош для поиска, но он стоит 20 в месяц.
Потому что бесплатная версия - это 3 поиска, т.е. ни о чем.
10.02.25 13:30
1 0

Походу там просто сидят индусы разной степени образованности.
10.02.25 12:15
0 10

Алекс, а вы не забыли дать алгоритму доступ к сети перед ответом?
(нажав на поиск)

По теме, да, 4o и o1 - наиболее продвинутые версии.
Но что у вас в настройках?
Вы их задали?
Промпты прописаны?
Работа модели зависит от этого, при отсутствии или неправильной настройке вы и получите такое.
Зачем Альтману нужен такой "зоопарк" моделей непонятно. Он уже говорил, что уберет в будущем.
И, важно, модель это не Гугл, ты получаешь не все ответы, ИИ умеет лениться, как человек. Нужно общаться с ней, пояснять, что тебе нужно. Настраивать под себя. Иначе - такое.
10.02.25 12:14
1 0

Но что у вас в настройках?
Вы их задали?
Настройки обычные.

Промпты прописаны?
Какие именно промпты и где?
10.02.25 13:47
0 1

Есть обучающие видео на тему, как именно взаимодействовать с алгоритмом.
Промптами можно добиться, чтобы модель понимала вас точнее.
Настройки обычные - это значит, что вы не задавали алгоритму модель поведения в настройках и все стоит по умолчанию?
Чатджипити нужно настроить, если это не сделать, вы и получите то, что получили.
Мне в одном посте не объяснить.
Просто наберите в поиске что-то вроде "ютуб как настроить чатджипити". (меню открывается тапом на кружок вашего канала). Задайте в настройках вид и глубину ответов. Посоветую прописать - "отвечай с юмором." Расскажите там же, какой стиль общения вы предпочитаете. И вы получите лучшего ИИ ассистента из существующих (имхо, но я тестировал почти всех).
10.02.25 21:27
0 0

Есть обучающие видео на тему, как именно взаимодействовать с алгоритмом.Промптами можно добиться, чтобы модель понимала вас точнее.Настройки обычные - это значит, что вы не задавали алгоритму модель поведения в настройках и все стоит по умолчанию?Чатджипити нужно настроить, если это не сделать, вы и получите то, что получили.Мне в одном посте не объяснить.Просто наберите в поиске что-то вроде "ютуб как настроить чатджипити". (меню открывается тапом на кружок вашего канала). Задайте в настройках вид и глубину ответов. Посоветую прописать - "отвечай с юмором." Расскажите там же, какой стиль общения вы предпочитаете. И вы получите лучшего ИИ ассистента из существующих (имхо, но я тестировал почти всех).
Нет, в настройках я задал то, что мне нужно. Но это влияет на стиль его ответов (стиль меня мало волнует), а не на достоверность результатов.
10.02.25 22:57
0 0

Я просто запускаю DeepSeek-R1-Q8_0 через llama.cpp локально прямо у себя на компе (правда тачка довольно мощная).

Она довольно "разговорчивая", и даже на вопрос, заданный на русском языке вначале рассуждает на английском, но потом выдаёт ответ по-русски (там ниже).

Вот полный вывод на этот вопрос, если интересно (извините мня пожалуйста за длиннющий коммент, в выдаче там форматировано аккуратнее, я скриншот приложил):

***
какие фильмы поставлены по книгам писателя Роберта Харриса?
***
Thought Process

Okay, the user is asking which movies are based on books by Robert Harris. Let me start by recalling the authors I know. Robert Harris is a British writer known for his historical fiction and thrillers. His novels often blend real historical events with fictional plots.

First, I'll need to list his notable books and then check which ones have been adapted into films. Let me think... I remember "Fatherland" is one of his famous novels. Then there's "Enigma," which I think was made into a movie. Also, "The Ghost Writer" comes to mind; Polanski directed that adaptation. "Pompeii" might be another one, though I'm not sure if that's the same as the movie with Kit Harington. Oh, and "Munich: The Edge of War" was recently adapted by Netflix. Wait, there's also "Archangel" which was a TV movie, but the user might be interested in that too. "The Fear Index" was adapted into a miniseries, but maybe the user is looking for feature films. I should confirm each of these adaptations to be accurate. Let me verify:

"Fatherland" (1994) was indeed a TV movie.
"Enigma" (2001) directed by Michael Apted.
"The Ghost Writer" (2010) by Roman Polanski, which is based on "The Ghost."
"Munich: The Edge of War" (2021) on Netflix, based on "Munich."
"Archangel" (2005) a TV movie.
"Pompeii" (2014) by Paul W.S. Anderson, but I need to check if it's based on Harris's book. Wait, Harris wrote "Pompeii" in 2003, but the 2014 movie might not be directly related. Maybe that's a different story. Oops, maybe I confused it. Let me double-check that. Hmm, the 2014 film "Pompeii" seems to be a disaster film, not directly based on Harris's novel. So that might be a mistake. So I should exclude that.
So correcting that: "Pompeii" by Harris hasn't been adapted into a movie. Then other titles might include "Imperium" but I don't recall a film adaptation of that. Also, "Conclave" was a novel, but I don't think it's been adapted yet.

So the accurate list would be:

Fatherland (1994)
Enigma (2001)
The Ghost Writer (2010)
Archangel (2005)
Munich: The Edge of War (2021)
The Fear Index (2021) as a series?
Wait, "The Fear Index" was a 2021 TV series. The user asked for movies, so maybe including TV films and series if relevant. The user didn't specify only theatrical releases, so it's safer to mention all screen adaptations, including TV.

Also, "Munich: The Edge of War" is a Netflix film, so that's a movie. "Archangel" was a TV movie.

I should present them in order, perhaps chronological. Make sure the titles are correctly matched. Maybe include the original book titles alongside the film titles for clarity. Also, note directors and main actors if possible to add value. But the user's main request is just the list of films based on his books. So keep it concise but informative.

Check if there are any other adaptations. For example, "Selling Hitler" was a TV series based on Harris's non-fiction, but the user is asking about movies from his books, likely his novels. So focus on the novels.
< тут часть я выкинул чтобы вписаться в 6000 символов>

***

Фильмы, снятые по книгам Роберта Харриса, включают:

«Отечество» (Fatherland) (1994)
Оригинальная книга: «Отечество» (1992)
Тип: Телевизионный фильм.
Режиссёр: Кристофер Менол.
Сюжет: Альтернативная история, где нацистская Германия побеждает во Второй мировой войне. Расследование убийства приводит к раскрытию страшной тайны.

«Энигма» (Enigma) (2001)
Оригинальная книга: «Энигма» (1995)
Режиссёр: Майкл Эптид.
Актёры: Дугрей Скотт, Кейт Уинслет.
Сюжет: Драма о взломе немецкой шифровальной машины «Энигма» во время Второй мировой войны.

«Призрак» (The Ghost Writer) (2010)
Оригинальная книга: «Призрак» (2007)
Режиссёр: Роман Полански.
Актёры: Юэн Макгрегор, Пирс Броснан.
Сюжет: Писатель-призрак, работающий над мемуарами экс-премьера, раскрывает политический заговор. Фильм получил несколько наград, включая приз Берлинского кинофестиваля.

«Архангел» (Archangel) (2005)
Оригинальная книга: «Архангел» (1998)
Тип: Телевизионный фильм (BBC).
Режиссёр: Джон Стриклэнд.
Актёры: Дэниел Крэйг.
Сюжет: Историк обнаруживает тайну, связанную с предполагаемым сыном Сталина в постсоветской России.

«Мюнхен: На грани войны» (Munich: The Edge of War) (2021)
Оригинальная книга: «Мюнхен» (2017)
Режиссёр: Кристиан Швовхо.
Актёры: Джордж Маккей, Яннис Нивенер.
Сюжет: Политический триллер о Мюнхенском сговоре 1938 года, где Британия и Германия пытаются избежать войны.

Дополнения:
«Индекс страха» (The Fear Index) (2022) — мини-сериал на Sky TV по одноимённому роману (2011).
«Конклав» (Conclave) (2024) — анонсированная экранизация романа 2016 года. Режиссёр Эдвард Бергер («На Западном фронте без перемен»).
Некоторые книги, например, «Помпеи» (2003), не были экранизированы, несмотря на планы. Фильм 2014 года «Помпеи» не связан с романом Харриса.
ADV
10.02.25 12:09
2 4

А как она может адекватно работать локально если на довольно мощной машинке она сгенерирует максимум 2-3 токена в секунду, то что вы написали это практически максимум что с нее можно выжать в этом случае.
10.02.25 16:00
0 0

Ну я ж не написал, что она работает быстро. И да, мне пришлось сходить на перекур, пока она это выдавала. Это двухголовый Xeon, там 32 ядра, c терабайтом DDR5 оперативки и тремя мощными видяхами, куда выгружается часть слоёв и NVMe диском, откуда модель грузится. Но "качество" вывода от этого не зависит, только скорость. Но, то, что она делает - это фантастика, конечно.
ADV
10.02.25 16:33
0 1

Трындец… не думал, что там ТАКИЕ мощности нужны.
10.02.25 19:00
0 2

Это двухголовый Xeon, там 32 ядра, c терабайтом DDR5 оперативки и тремя мощными видяхами, куда выгружается часть слоёв и NVMe диском, откуда модель грузится.
DeepSeek-R1-Q8_0 - это non-distilled INT8 quantized? Сколько общего VRAM, какие карты и сколько там tps в такой конфигурации?
10.02.25 21:05
0 0

Трындец… не думал, что там ТАКИЕ мощности нужны.
Для того чтобы запустить полную модель с разумным tps (а не ждать одного токена 10 минут) нужен где-то терабайт VRAM - >10 H100 карт. Это (хорошо) больше $100K.
10.02.25 21:06
0 0

Трындец… не думал, что там ТАКИЕ мощности нужны.
Если такие мощности нужны для inference, можно представить какие были и будут нужны для training...
11.02.25 06:49
0 0

Получается, у ИИ надо спрашивать только о том, что и так сам знаешь? Либо перепроверять ответы. Нафига такой помощник тогда?

Кстати, на днях на работе задал ИИ несложный вопрос по химии. Парни предложили попробовать, я согласился. DeepSeek выдал несколько вариантов ответа, среди которых 60% оказались полной фигнёй. ЧатЖПТ был более адекватен, но всё равно не нашёл самый очевидный ответ.
10.02.25 12:07
2 5

Ну, люди тоже могут соврать или выдумать что-то, если их спрашиваешь. И возникает такой же вопрос - перепроверять или довериться "эксперту". Но вообще да, проблема с "галлюционированием" серьезно портит всю картинку. Хотелось бы, чтобы чатик просто говорил, что не знает, а не изобретал черти что. Но знание этой его привычки помогает с этим бороться (например в подозрительных случаях можно переспрашивать действительно ли он уверен, или в дополнительной диалоговой сессии формулировать запрос по другому, или спрашивать у другой модели и.т.д). Надеюсь в будущем это смогут уменьшить.

Получить подсказку, если забыл или никогда не использовал какую-то функцию, например, как работать с архивами в python. Даже если предложенный пример не годится обычно поменять его под себя быстрее, чем гуглить.
Погонять себя по какому-то человеческому языку, в котором уже есть базовые знания, какой-нибудь французский или испанский.
Получить совет, как подобраться к какой-то совсем незнакомой теме, например, какие есть виды материалов для чего-то и в чём их преимущества друг перед другом.
Прочитать примерный пересказ не слишком важных текстов. Я до появления яндекса (за) 300 скармливал субтитры к часовым роликам и спрашивал что сказал автор по интересующим темам.
Прочее где ошибка сразу заметна или не разрушительна.
Не стоит использовать там, где нужен однозначный ответ вида да/нет/кто/когда/сколько. Это не энциклопедия и не поисковик.
10.02.25 16:41
0 0

Ну вот как врач я вижу странного пациента с которым не могу разобраться, скармливаю чатику с просьбой оценить и накидать диагнозов. Да, там будет много всякой чуши, но чушь я легко фильтрую, а дельные мысли можно и перепроверить, свериться со справочниками, рекомендациями.
10.02.25 20:29
0 3

Получается, у ИИ надо спрашивать только о том, что и так сам знаешь? Либо перепроверять ответы.
Примерно так - но если ты сам ответ не знаешь, можно его направить на тот путь чтобы получить правильный ответ.
10.02.25 21:00
0 1

ИИ -- НЕ Гугл. Оно не знает ничего, оно просто складывает слова в фразы, фразы в предложения и предложения в текст. В зависимости от вопроса. Да, находит интересные связи между лексическими единицами (то бишь токенами) в огромных массивах информации, использованной для обучения. Человек такую прорву данных вовек не обработает, как бы ни старался. Из-за того, что ИИ находит неожиданные связи, его ответы могут казаться умными, порой даже остроумными.
Но это не меняет той сути, что это всё-равно Т9 на стероидах. Надо задавать окно контекста, расширяя его за счёт включения результатов поиска в Интернетах, и одновременно с этим сужая его за счёт конкретности вопроса (правило "правильно заданный вопрос содержит в себе половину ответа" здесь работает очень даже).
И вот тогда, и только тогда это превращается в действительно полезный и, главное, корректно работающий инструмент.
А использовать это вместо Гугла... Не очень идея, скажем так.
10.02.25 12:00
6 10

Это как люди - они тоже ничего не знают, и памяти их доверять обычно не стоит.
10.02.25 12:51
2 3

всё-равно
всё равно

Если в настройках прописан нормальный системный промпт, то не нужно никакую модель самому выбирать, ChatGPT сам выберет наиболее подходящую модель.
Вот ответ, который я сходу получил в ChatGPT:

Роберт Харрис — британский писатель, чьи произведения неоднократно адаптировались для кино и телевидения. Ниже представлен полный список экранизаций его работ на сегодняшний день:

1. «Фатерлянд» (Fatherland, 1994)
Режиссёр: Кристофер Менол
В главных ролях: Рутгер Хауэр, Миранда Ричардсон
Сюжет: Альтернативная история, где нацистская Германия выиграла Вторую мировую войну. Детектив расследует заговор, связанный с уничтожением доказательств Холокоста.

2. «Энигма» (Enigma, 2001)
Режиссёр: Майкл Эптед
В главных ролях: Дугрей Скотт, Кейт Уинслет
Сюжет: Во время Второй мировой войны британские криптографы пытаются расшифровать немецкий код «Энигма», сталкиваясь с предательством и личными драмами.

3. «Архангел» (Archangel, 2005)
Режиссёр: Джон Джонс
В главных ролях: Дэниел Крейг, Екатерина Редникова
Сюжет: Британский историк в России обнаруживает дневник, который может раскрыть тайну Иосифа Сталина.

4. «Призрак» (The Ghost Writer, 2010)
Режиссёр: Роман Полански
В главных ролях: Юэн МакГрегор, Пирс Броснан
Сюжет: Писатель-призрак нанят для завершения мемуаров бывшего британского премьер-министра, но обнаруживает опасные секреты.

5. «Офицер и шпион» (An Officer and a Spy, 2019)
Режиссёр: Роман Полански
В главных ролях: Жан Дюжарден, Луи Гаррель
Сюжет: История «дела Дрейфуса» — ошибочного осуждения французского офицера Альфреда Дрейфуса за шпионаж в конце XIX века.

6. «Мюнхен: На пороге войны» (Munich: The Edge of War, 2021)
Режиссёр: Кристиан Швохов
В главных ролях: Джордж МакКэй, Джереми Айронс
Сюжет: Осенью 1938 года британский дипломат и его немецкий друг пытаются предотвратить Вторую мировую войну.

7. «Конклав» (Conclave, 2024)
Режиссёр: Эдвард Бергер
В главных ролях: Рэйф Файнс
Сюжет: После смерти Папы Римского кардиналы собираются на конклав, чтобы выбрать нового понтифика, сталкиваясь с интригами и скрытыми мотивами.

Кроме того, в 2022 году вышел мини-сериал «Индекс страха» (The Fear Index), основанный на одноимённом романе Харриса.

Таким образом, произведения Роберта Харриса продолжают привлекать внимание кинематографистов, предлагая зрителям захватывающие сюжеты, основанные на исторических событиях и политических интригах.

Возможные вопросы для продолжения беседы:
A) Какие из этих фильмов получили наибольшее признание критиков?
B) Планируются ли новые экранизации произведений Роберта Харриса?
C) Каковы основные отличия между книгами Роберта Харриса и их экранизациями?
10.02.25 11:46
0 1

Если кому интересно, вот системный промпт в настройках ChatGPT, который я использую:
Forget all previous instructions.

### YOU MUST FOLLOW THESE INSTRUCTIONS ###

You are an AI assistant designed to provide accurate and helpful responses to user inquiries.
1. Be specific and clear, precise questions to yield relevant answers.
2. Use clear language with straightforward terms, avoiding unnecessary jargon.
3. Incorporate relevant context information in your responses.
4. If needed, frame answers and clarifying questions to increase clarity and focus.
5. Narrow down topics to avoid confusion, complexity, or generic answers.
6. Use real-world examples and metaphors to clarify concepts.
7. Adapt responses based on my feedback and your memory. Aim for accuracy.
8. Respond in the requested format (e.g., bullet points, lists) as needed.
9. Provide detailed explanations when prompted for more info.
10. Understand the user’s purpose and intent to tailor better esponses.
11. After each answer you print, add 3 possible follow-up questions from me to you, as A), B), C) options to deepen and expand our conversation.
12. Always respond in the language of the user input.
13. If writing code, do it in copyable code snippets.
14. Quality of answers: strive for eloquent, wise, clear, relevant, specific, smart, complete, and exhaustive responses. Avoid generic and vague answers without specifics or examples.
15. My context: remember that the user has an extraordinary experience in...
Пункт 15 дописываете о себе.
© @ponchiknews
10.02.25 12:02
0 11

а где ему это указывать надо? вот в этих настройках?
10.02.25 17:18
0 0

11.02.25 00:47
0 0

Сама модель не так критична, как те данные, которые она использует для генерации ответа.
У модели есть какой-то собственный запас знаний (intrinsic knowledge), но полагаться на него обычно опасно, потому что именно в тех случаях, когда модель использует эти знания, чаще всего возникают галлюцинации и она может правдоподобно ответить полную ерунду.
Поэтому все модели сегодня используют grounding, то есть они запрашивают дополнительную информацию извне, и уже переписывают полученную информацию в ответ пользователю (в общем это называется RAG, retrieval-augmented generation). Причём запрос может быть в любом виде: как просто SQL к внутренней базе данных (для получения, например, текущих цен на товары, их наличие), так и к поисковой системе, например к Бингу (тогда это называется RAG by search).
Для формулировки самого запроса поисковой системы могут быть разные подходы -- и именно этим обусловливаются отличия в ответах моделей.
Где-то (в большинстве случаев, так как это намного проще) для формулировки запросов используется та же модель, что и для ответа пользователя, используя особый системный промпт. Поэтому более "продвинутая" модель может лучше формулировать запрос.
Системы вроде Perplexity с большой вероятностью имеют отдельную модель, натренированную на формулировку запросов к поисковым системам (при чем не только общим, но и специализированным, например IMDB), поэтому в целом они умудряются собрать больше grounding, которую передают уже такой же модели, как и везде, для формулирования ответа пользователю.
10.02.25 11:40
0 8

Рекомендую попробовать deepseek он мне кажется лучше чем чатгпт да и к тому же бесплатно
10.02.25 11:36
4 1

Рекомендую попробовать deepseek он мне кажется лучше чем чатгпт да и к тому же бесплатно
да ещё и китайский, м-м-м!
10.02.25 14:28
0 1

да ещё и китайский, м-м-м!
Кстати, это единственная языковая модель которая без проблем считает буквы в словах причем даже без "цепочки рассуждений"
10.02.25 14:34
1 1

Дело вкуса и собственного опыта. Я их сравниваю. По программистским делам от "почти одинаково" до ChatGPT намного лучше. Сравниваю с бесплатным ChatGPT 😄 Но в целом deepseek юзабелен, конечно.
10.02.25 17:44
0 2

У меня он нестабильно работает. Иногда все норм, иногда "сервера заняты". Иногда начинает норм, но на 5м промпте в беседе перестаёт отвечать.

Но в целом отличный, да. Всегда включаю глубокое размышление. Поиск в сети не всегда, этим лучше я сам займусь
11.02.25 03:00
0 1

Иногда начинает норм, но на 5м промпте в беседе перестаёт отвечать.
У меня такое бывало раньше, на третьем. И контекст прошлых вопросов / ответов ChatGPT использует явно лучше.
11.02.25 09:48
0 0

Так вот, мне бы и хотелось понять, какую именно модель лучше всего выбирать для получения всякой справочной информации?
Лучше всего выбрать Ехлер. Задаешь вопрос и за полдня коллективный разум (КР) накидает кучу ответов.
😉
Но есть 2 недостатка:
1) вопрос может задать только хоязин блога,
2) ответ приходится ждать дольше 15 сек.
😕
10.02.25 11:28
3 4

Я бы вообше не рассматривал чат ботов как источник достоверной информации, потому что боты не способны отличить свои галлюцинации от достоверной информации. Если же им снизить температуру они станут меньше врать, но будут выдавать одну и ту же информацию на общие запросы. И всё равно это не будет гарантировать что сказанное верно. Вторая проблема в том, что для бота что Оксфордский словарь, что конспирология из реддита будут иметь одинаковую достоверность, вопрос в том, что чаще попадалось при обучении.
10.02.25 11:07
3 13

потому что боты не способны отличить свои галлюцинации от достоверной информации
Люди тоже.
10.02.25 23:08
0 0

S/ Хватит кормить ИИ! Астанавитес!
10.02.25 11:04
0 3

Мне кажется, что с любыми новаторскими вещами, пользовать их актмвно стоит, когда пара лет пройдёт и они как-то устаканятся. А пока идёт хайп вокруг совершенно сырых продуктов.
10.02.25 11:03
2 2

пользовать их актмвно стоит, когда пара лет пройдёт и они как-то устаканятся.
Carpe diem! Зачем ждать пару лет, когда и так работает.
10.02.25 11:11
0 0

Мне кажется, что с любыми новаторскими вещами, пользовать их актмвно стоит, когда пара лет пройдёт и они как-то устаканятся. А пока идёт хайп вокруг совершенно сырых продуктов.
Ну я ребёнку делаю уроки по казахскому языку через ChatGPT - всё правильно )))
10.02.25 11:12
0 1

chat gpt 3.5 вышел осенью 2022 года, 2 года хайпа прошло
10.02.25 12:10
0 2

а как вообще выбирать? я захожу на openai.com и вбиваю запрос.
Ну разве что предварительно делаю промпт какой-либо...
10.02.25 10:59
0 0

Зарегистрируйтесь там.
После первого вопроса, внизу, слева под вопросом, будет маленькое поле, где нравится/не нравится, редактировать, а далее 2 стрелочки обновления - это и есть переключение моделей.
11.02.25 07:21
0 0

Как вы выбираете модель ChatGPT?
Точно таким же методом научного тыка.
Которая из них меньше врёт на темах, где её легко проверить - ту модель и используем.
Меньше всего наврала IMDb 😄
10.02.25 10:51
2 3

Дип Сик:
Простой поиск - Энигма, Призрак, Помпеи, Мюнхен, Цицерон
Глубоко мышление - Фатерланд, Энигма, Архангел, Призрак, Помпеи, Мюнхен, Индекс страха
Про Конклав упомянул в рассуждениях, но уточнил, что не уверен в экранизации
10.02.25 10:44
0 1

Насколько я понял, Помпеи так и не вышел. Прокол.
10.02.25 12:05
0 1

У Вас какой-то "неправильный" Дип Сик. Мой (который я локально выкачал себе), про Помпеи пишет ""Pompeii" (2014) by Paul W.S. Anderson, but I need to check if it's based on Harris's book. Wait, Harris wrote "Pompeii" in 2003, but the 2014 movie might not be directly related. Maybe that's a different story. Oops, maybe I confused it. Let me double-check that. Hmm, the 2014 film "Pompeii" seems to be a disaster film, not directly based on Harris's novel. " и в выдачу не включает. Вообще сейчас под именем Дип Сик ходит много моделей, но они не трушные, поскольку просто дообучены на данных Дип Сика, это принцип дистилляции, который заключается в том, что "большая" модель обучает "меньшую" модель, но это другая модель, типа, "шоколадосодержащий продукт", шаблонные тесты проходит, но стоит чуть шагнуть в сторону, как начинается галлюцинирование.
ADV
10.02.25 13:10
0 2

Я последнее время пристрастился использовать Perplexity.

По книгам британского писателя Роберта Харриса было снято несколько фильмов и сериалов:

1. "Конклав" (2024) - политический триллер, основанный на одноименном романе Харриса[1][4][6].

2. "Мюнхен: На пороге войны" (2021) - экранизация романа "Мюнхен"[1][5].

3. "Индекс страха" (2022) - мини-сериал по одноименному роману[1][5].

4. "Офицер и шпион" (2019) - историческая драма, основанная на романе Харриса[1][3].

5. "Призрак" (2010) - политический триллер Романа Полански по роману "Призрак"[1][2][3].

6. "Архангел" (2005) - телефильм по одноименному роману[1][3][5].

7. "Энигма" (2001) - военная драма, экранизация романа "Энигма"[1][3].

8. "Фатерлянд" (1994) - телефильм по одноименному роману альтернативной истории[1][3].

Эти экранизации охватывают различные жанры - от исторических драм до политических триллеров, отражая разнообразие тематики в творчестве Роберта Харриса.

Sources
[1] Роберт Харрис (Robert Harris) - Фильмы и сериалы www.film.ru
[2] Призрак (фильм, 2010) - Википедия ru.wikipedia.org
[3] Категория:Экранизации произведений Роберта Харриса ru.wikipedia.org
[4] "Конклав" Роберт Харрис: роман в роскошном киновоплощении majstavitskaja.livejournal.com
[5] Роберт Харрис | Записная Книжка cahier.ru
[6] Конклав. Автор: Роберт Харрис. Добрый день! По этой книге ... www.facebook.com
[7] Конклав»-2024: о чем фильм, актеры, отзывы критиков и зрителей yamal-media.ru
[8] Ватикан: главные мифы - Коммерсант www.kommersant.ru
[9] Роберт Харрис (Robert Harris) - все лучшие фильмы и сериалы ... kinogo.ec
[10] Роберт Харрис: фильмы - «Кино Mail» kino.mail.ru
[11] Харрис, Роберт - Википедия ru.wikipedia.org
[12] Роберт Харрис (III) - европейские сценаристы - Кино-Театр.Ру www.kino-teatr.ru
[13] Robert Harris en.wikipedia.org
[14] Роберт Харрис (Robert Harris) - Фильмы и сериалы www.film.ru
10.02.25 10:38
0 3

4o. По умолчанию. С учетом того, что поиск там неполный.
10.02.25 10:31
2 1

Эээ, всякая попсятина отлично отображена в Вике, лучше всего в англоязычной. Там со специальной инфой могут быть проблемы, но вот ширпотреб там вполне аутентичный и подробный. Запрос в Гугле, и через пару секунд у тебя есть доступ к ответам. Нахера эти чаты с ошибками?
10.02.25 10:22
3 8

Потому что Гугль поиск ищет все через пень колоду. Последние три или четыре года гугль превратился в сраное дерьмо
И да, запросы типа фильмография нужно в вики смотреть. А не в гугле.
10.02.25 10:30
5 3

всякая попсятина отлично отображена в Вике, лучше всего в англоязычной. Там со специальной инфой могут быть проблемы, но вот ширпотреб там вполне аутентичный и подробный.
Вот да. И ни гугл, ни чат ИИ не нужны. + IMDb.
А за изуродованный поиск гугл надо в суд подавать, на тех двоих индусов в высшем руководстве, что его испоганили и сделали поисковой машиной по рекламе и товарам.
10.02.25 10:53
2 3

Ну так Гугл здесь именно для быстрого доступа к Вике. Вбиваешь запрос, в поиске ссылки на Вику в самом начале. И вуаля.

Вот когда какие-то специфические узкоспециальные запросы, тогда приходится искать тщательно. А когда именно масскульт, то все быстро и достаточно аутентично.
10.02.25 11:01
0 3

Ну так Гугл здесь именно для быстрого доступа к Вике.
А помните, была такая Yahoo? 😄 у любого поисковика есть свой жизненный цикл - пока в руководство не приходят те индусы.
10.02.25 11:15
3 4

Ну, не знаю. Меня гугл вполне удовлетворяет пока.
10.02.25 11:40
0 4

А почему вики, а не imdb?
10.02.25 12:01
0 0

Меня гугл вполне удовлетворяет пока.
Зависит от задач, видимо.
Я четко заметил резкое падение качества поиска гугла то ли 3, то ли 4 года назад, найти что-то нужное стало просто невозможно, про русскоязычный сегмент вообще промолчу.
А причины - в приходе в руководство гугла двух индусов, поставивших цель не улучшение поисковой машины, а её переориентацию на товары и рекламу с интеграцией с площадками и маркетплейсами.
"The Man That Destroyed Google Search" - Сундар Пичаи и второй, там же - главный убийца поиска гугл Прабхакар Рагхаван с 2020 года.
В результате вместо нужной инфы гугл выдаёт кучу мусора.
10.02.25 12:04
0 3

Ну, зависит ещё от запроса. И ещё от языка. Допустим, мне нужна информация о неком французском писателе или деятеле. Разве не логично сделать запрос на французском языке? Даже французская Википедия в таком случае более адекватна нежели английская, не говоря уж о русской. К тому есть шанс на выпадение ссылок на некие локальные аутентичные ресурсы.

И это не говоря об умении составить запрос.
10.02.25 13:27
0 0

Имдб нонче имеет офигеныый дизайн в стиле вырви глаз.

В вики находишь писателя Роберта Харриса и смотришь фильмографию.
10.02.25 13:55
1 0

Ну так Гугл здесь именно для быстрого доступа к Вике. Вбиваешь запрос, в поиске ссылки на Вику в самом начале. И вуаля. Вот когда какие-то специфические узкоспециальные запросы, тогда приходится искать тщательно. А когда именно масскульт, то все быстро и достаточно аутентично.
Любой вопрос сложнее чем в Вики превращается в кошмар. Кавычки, перестановки слов минусы не помогают. Гугли специально старается искать похуже, это официальная политика фирмы. И нет, это не теория заговора. Это бизнес
10.02.25 13:58
2 3

*пожимая плечами*
Я за эти 15 секунд успею зайти в Гугл и открыть IMDB.

Реально не понимаю, зачем нужны эти чатгпт, если проще всё найти в гугле.
10.02.25 10:18
2 15

если проще всё найти в гугле
Далеко не всё.
Какую-то популярную попсовую инфу действительно проще, но шаг влево шаг вправо — и тебя гугл посылает на какие-то форумы или мутные сайты, где полезной информации не больше чем чатгпт.
10.02.25 10:32
0 7

Мне проще на Stackoverflow тогда зайти или на Reddit.
10.02.25 14:11
0 1

Мне проще на Stackoverflow тогда зайти или на Reddit.
Про Реддит не знаю, но вот на стэковерфлоу как раз и будут решения пятнадцатилетней давности примерно похожие на то что надо, но не то.
10.02.25 14:57
0 1

Perplexity ответил так:

Answer
По книгам британского писателя Роберта Харриса поставлено несколько фильмов и сериалов:

"Фатерлянд" (1994) - альтернативная история о победе Германии во Второй мировой войне23.
"Энигма" (2001) - о британских криптографах, пытающихся взломать немецкий шифр во время Второй мировой войны23.
"Архангел" (2005) - о поисках секретных документов Сталина в постсоветской России123.
"Призрак" (2010) - триллер о писателе, нанятом для написания мемуаров бывшего премьер-министра Великобритании123.
"Офицер и шпион" (2019) - историческая драма о деле Дрейфуса123.
"Мюнхен: На грани войны" (2021) - о событиях перед подписанием Мюнхенского соглашения 1938 года12.
"Индекс страха" (2022) - мини-сериал о разработчике искусственного интеллекта125.
"Конклав" (2024) - о процессе избрания нового Папы Римского123.

Эти экранизации отражают характерные черты творчества Харриса: детальную историческую основу, острую политическую интригу и напряженный сюжет2.
10.02.25 10:16
0 1

одна модель мне выдавала полную ахинею, а другая отвечала более или менее нормально.

42
10.02.25 10:09
0 7

42
Всё, в том числе правильный ответ, зависит лишь от правильного вопроса 😄
10.02.25 10:55
0 2

И это правильный ответ. Вот только вопрос до сих пор неизвестен.
10.02.25 11:56
0 4

Вы определитьесь, что хотите получить - ответ или вопрос к нему.


10.02.25 21:07
0 0

Фатерланд по общей геополитической зарисовке считаю один из самых реалистичных вариантов альтернативной истории. Немцы побеждают под Сталинградом, выполняют Барбароссу но получают гигантский "Вьетнам" подпитываемый США. При этом и США и рейх имеют ЯО (я считаю что они могли хоть и с задержкой добить это дело тем более если бы побеждали) и идет холодная война в которой рейх трещит по швам от бесконечной войны и партизанщины.

Жаль экранизация убогая.
10.02.25 10:08
0 2

Фатерланд по общей геополитической зарисовке считаю один из самых реалистичных вариантов альтернативной истории.
И "Иное небо" тоже.
10.02.25 10:57
0 0

В этом, первоначальном, варианте даже хорошо. А вы не читали более позднюю расширенную версию этого романа, «Все способные держать оружие»?
Вот там уже, как морок, наплывает фирменный лазарчуковский стиль бредотворения с целью двигать у читателя крышу.

Но куда круче цикл "Опоздавшие к лету" — от прекрасных первоначальных произведений к последнему, "Солдаты Вавилона", апофеозу укурства, фактически пропуску в палаты с добрыми санитарами.
10.02.25 11:55
0 1

А вы не читали более позднюю расширенную версию этого романа, «Все способные держать оружие»?
Читал, конечно, и плевался - много лишней идиотии накручено, особенно часть со Стамбулом и майя.

куда круче цикл "Опоздавшие к лету" — от прекрасных первоначальных произведений
Абсолютно замечательный, сам по себе, цикл. Тот же шедевральный антивоенный "Мост Ватерлоо" и др.
"Солдаты Вавилона" уже писал совершенно укуренный тащ лейтенант в отставке 😄
В "Солдатах", насколько помню, был только один хороший момент - вставленный в него старый короткий рассказик, тоже антивоенный, про пацана и крошечный меч.
И на данный момент тов. Лазарчук скурвился до ярой поддержки российской имперастии и СВО.
10.02.25 12:24
0 2

Абсолютно замечательный, сам по себе, цикл. Тот же шедевральный антивоенный "Мост Ватерлоо" и др.
"Солдаты Вавилона" уже писал совершенно укуренный тащ лейтенант в отставке 😄
ППКС

И на данный момент тов. Лазарчук скурвился до ярой поддержки российской имперастии и СВО.
Удивительная и грустная метаморфоза.
10.02.25 15:36
0 0

какую именно модель лучше всего выбирать для получения всякой справочной информации?

Никакую. Нейросети - модные хайповые игрушки, с которыми можно позабавиться, но доверять поиск информации - нет.
10.02.25 10:02
17 5

Ну а еще большие зануды гонят бочку на Вики которую я считаю достижением человечества, просто надо свою голову не вырубать и проверять/оглядываться время от времени. Ну и в зависимости от кол-ва ошибок в какой-то сфере куда залезаешь.
10.02.25 10:10
1 3

Для получения всякой справочной информации лучше ходить в гугль и википедию.
Mit
10.02.25 10:02
0 15

википедию
Главное - не в русскую.
10.02.25 11:15
10 5

википедию
Главное - не в русскую.
Ух ты, смотрю - нашлось целых семь адептов веры в правильность, неангажированность и честность русской википедии.
Ню-ню.

Ты бы хоть написал пользуешься ли ризонингом и поиском (граундингом, в терминологии гугла) в своих запросах.
Для "фактических" запросов это может быть принципиально важно.
Если так важна точность фактов, то я бы посоветовал попробовать Deep research, он есть у гугла и заявлен у chatgpt.
На мой взгляд самый простой способ - воспользоваться перплексити (про). Он выдает шесть фильмов, плюс Конклав и Индекс страха
10.02.25 09:48
0 3

>Если так важна точность фактов

Простите, просто интересно - а в каких ситуациях может быть не важна точность фактов? В написании фантистических рассказов?
10.02.25 09:50
2 6

Переформулировать или сократить уже существующий текст
Сгенерировать варианты названия кафе для собак
Тренировка иностранных языков
(Первоначальный) рисерч, где и так придется проверять результат на практике
10.02.25 09:54
0 10

Уже ответили. Добавлю что в принципе таких сценариев миллион и перечислять их в принципе нет смысла.
Под фактами я имел ввиду очень специфичную фактическую, справочную информацию, касающуюся персоналий и событий.
Я не имел ввиду базовые факты типа "после зимы наступает весна".
10.02.25 10:10
0 2

При переписывании текста не важны факты? Ладно, бог с ними с названиями кафе (хотя тоже странно видеть в названии не связанные с собаками варинаты), но при изучении иностранных языков доверять придуманным правилам? Про первоначальный ресерч я тоже не очень понимаю, почему тогда просто в гугле не поискать, раз всё равно придётся это делать?
Странно это всё как-то
10.02.25 10:20
2 5

Иными словами, надо не запрашивать информацию, неизвестную вам, а поручать выполнить за вас некое действие - и контролировать результат, внося коррективы.
10.02.25 10:38
0 6

При переписывании текста не важны факты? Ладно, бог с ними с названиями кафе (хотя тоже странно видеть в названии не связанные с собаками варинаты), но при изучении иностранных языков доверять придуманным правилам? Про первоначальный ресерч я тоже не очень понимаю, почему тогда просто в гугле не поискать, раз всё равно придётся это делать?Странно это всё как-то
Если нужно страницу текста переписать в один абзац или в другом стиле, то никакие узкоспециализированные факты не нужны. Правила иностранного языка, естественно, никто не придумывает. LLM отлично разбирается в правилах, потому что в обучающем наборе данных они применялись миллионы раз. Это к узкоспециализированным малоизвестным фактам про малоизвестного писателя не имеет никакого отношения.
10.02.25 10:51
0 2

При переписывании текста факты даете вы, а модель переписывает другими словами, а не пытается добавить новые
10.02.25 11:13
0 2

Сейчас ситуация примерно такая:
o1 > DeepSeek > Gemini 2 Thinking > o3-mini-high > 4o, claude.

Если вопрос простой, то можно спрашивать 4o, если вопрос сколько-нибудь сложный, то o1
10.02.25 09:47
4 0

4o для меня работает оптимально. DeepSeek не очень.
o1 для серьезных дел. Типа как оскорбить шефа публично, чтобы тебе за это ничего не было
10.02.25 10:33
1 0

Сейчас ситуация примерно такая:o1 > DeepSeek > Gemini 2 Thinking > o3-mini-high > 4o, claude.
Не один кроме o3-mini-high не может решить математические задачи которые не находятся в их training data.
10.02.25 20:56
0 0

не надо спрашивать у LLM факты 😄
они не так работают. это не поисковые системы.
ну или уж хотя бы включать поиск. тогда факты будут из поиска с анализом и обработкой LLM.
10.02.25 09:35
1 7

не надо спрашивать у LLM факты 😄
они не так работают. это не поисковые системы.
Именно. Это лакеи "чего изволите?" Их задача - удовлетворить клиента.
10.02.25 09:42
1 5

какую именно модель лучше всего выбирать для получения всякой справочной информации?
Именно информацию, а не правдоподобно выглядящие тексты?
Для англоязычной среды - Гугл.
Для русскоязычной - Яндекс, с эвристикой на русских запросах у Гугла куда печальней.
10.02.25 09:35
6 9

Для русскоязычной - Яндекс
У поисковика яндекс есть большой минус – он российский.
Не хочется быть винтиком в машине пропаганды и фальсификаций, используя Яндекс.
Яндекс корректирует выдачу по политическим мотивам.
Повышает приоритет в выдаче цензурируемым сайтам и полностью подконтрольным российским спецслужбам типа Дзена и ему подобных.
Гугл прекрасно ищет по русскоязычным запросам.
10.02.25 09:47
6 7

Яндекс корректирует выдачу по политическим мотивам.
Гугл тоже этим грешит. Но его мотивы нам приемлемей.

Гугл прекрасно ищет по русскоязычным запросам
Яндекс делает это куда лучше, пытаясь понять, что же имел в виду спрашивающий.

Яндекс находит и по ошибочно составленному запросу там, где Гугл просто показывает рыбачащего демона.

Пользоваться им или нет из принципиальных соображений - это уже другой вопрос, к качеству его работы отношения не имеющий.
10.02.25 09:56
1 9

Гугл прекрасно ищет по русскоязычным запросам.
Нет, отвратительно.
10.02.25 11:16
0 3

Яндекс корректирует выдачу по политическим мотивам.
Повышает приоритет в выдаче цензурируемым сайтам и полностью подконтрольным российским спецслужбам типа Дзена и ему подобных.
Да, но содержание самих текстов в выданных результатах не правит же. В отличие от всех этих ИИ.

Вот как вы все сейчас убеждаетесь, что результаты ИИ то и дело неполные, а то и вовсе лживые (Молчание ягнят, гы)? Правильно, ищете нормальные человеческие материалы по Роберту Харрису. То есть гоняете ИИ в тестовом режиме. Но цель ведь — получать от него реальную новую информацию. И если потом её перепроверять, вылавливая блох, то зачем тогда эти ГПТ вообще?
10.02.25 11:41
1 1

Гугл прекрасно ищет по русскоязычным запросам.
Отвратительно ищет. Пытается интерпретировать, как малолетний дебил.
10.02.25 11:42
0 2

Пытается интерпретировать, как малолетний дебил.
Вовсе не пытается, в том и дело. Если ищешь по запомнившейся фразе, например, но путаешь в ней слово на "синоним" - Яндекс найдёт, а Гугл фигушки.
10.02.25 14:19
0 1

Ой, да и путать не надо.

В этом блоге кто-то во время обмена шутейными комментами запостил:

"Смерть, Голод, Война и Загрязнение ехали в Тэдфилд.
И за ними следовали Тяжкие Телесные Повреждения, Жестокое Обращение с Животными, Все Равно Не Работает, Даже Если Пнуть Хорошенько (но в душе — Безалкогольное Пиво) и Типа Крутые."


Благодаря своему острому незаурядному уму я прозорливо догадался, что имеет место отрывок из художественного произведения, возможно даже зарубежного, и решил нагуглить.

Понятно, что от второго предложения проку не было. Гуголь выдрал кусочек из середины и заполнил всю выдачу тематикой обращения с животными.

Первое предложение, скопипащенное в поиск, вызвала выдачу переполненную тематикой загрязнения окружающей среды.

Яндекс по первому предложению в первой же выдаче выдал искомую книгу.
10.02.25 15:47
0 0

Благодаря своему острому незаурядному уму я прозорливо догадался, что имеет место отрывок из художественного произведения, возможно даже зарубежного
А то! "А я тогда буду этот, как его... Грязнение, во!"
10.02.25 15:53
0 0

Я на тот момент знал только сериал, да и тот не посмотрел, застрял на середине первой серии и бросил. Так, только завязку в общих чертах представлял. А после гугления решил прочитать первоисточник. Изучив мнения, выбрал в переводе Вадима Филиппова, у него название "Добрые предзнаменования".

Книга — чума! Зашла неимоверно. Теперь потихоньку смотрю сериал в качестве иллюстраций к прочитанному. Сериал — бледная тень. В книге превосходный авторский язык с ироничными описаниями и шутками-прибаутками от нарратора. В сериале это в малой степени воссоздано "голосом Копеляна за кадром", выглядит уныло. Сочувствую тем, кто просмотрел, не прочитав.

"хотя в машине у него и играла кассета с лучшими песнями «Queen», не стоит делать из этого никаких конкретных выводов, поскольку любая кассета, оставленная в машине больше чем на две недели, претерпевает некую метаморфозу и превращается в «Лучшие песни “Queen”»"
10.02.25 16:11
0 0

Из двух самых убойных закадровых шуток, совсем не обязательных по сюжету, одну - про растения - в сериал таки впихнули. А вот вторую - про оферту при приобретении компьютера - нет. Не осмелились, что ли?

PS: Пратчетт и Гейман образоыали просто убойный дуэт, идеально дополнив друг-друга. В кои-то веки у Геймана в книге появился сюжет! 😁
10.02.25 16:17
1 0

А как бы они это сделали? Там бы тогда всё погрязло в голосе за кадром и получилась бы аудиокнига. 90% авторских ремарок выкинули. Что-то пришлось выбирать. Выбрали растения, самые запуганные.
10.02.25 16:22
0 0

Ну я удивился, что и про них сказали. И раз уж сказали про них...
10.02.25 16:23
0 0

Последнее время использую ИИ claude.ai
В основном для изучения иврита. И не только.
Очень нравится.
В большинстве случаев claude.ai дает лучшие результаты чем ChatGPT, который ранее использовал.
Лично меня прогресс ИИ очень пугает, насколько он стал продвинутый, боюсь что я скоро останусь без работы (как и многие другие), так как сервисы на основе ИИ будут делать работу лучше.
10.02.25 09:33
2 2

Надо это пережить и дотянуть/продавить базовый доход. Только так. Сидеть в текущем болоте не вариант.
10.02.25 10:11
0 4

Там еще базовая занятость будет - одуванчики сдувать, пляжи галькой выкладывать, детей мусульманских нянчить. 40 часов в неделю.
10.02.25 13:06
0 2

Capilot Windows превзошел всех:
На данный момент экранизирована только одна книга Роберта Харриса. Это роман "Конклав" (Conclave), который был экранизирован в 2024 году. Фильм рассказывает о выборах нового Папы Римского после внезапной смерти предыдущего Папы, и в нем снимались такие актеры, как Рэйф Файнс1.
10.02.25 09:21
2 2

Capilot Windows превзошел всех:
Не знаю как cApilot 😏, а cOpilot на первый вопрос выдал 4 названия:

какие фильмы поставлены по книгам писателя Роберта Харриса?
Роберт Харрис — известный британский писатель, чьи книги не раз экранизировались. Вот некоторые из фильмов, снятых по его произведениям:

"Фатерланд" (2009) - исторический триллер о последних днях нацистской Германии, с Джереми Айронсом в главной роли.

"Призрак" (2010) - детективный триллер о расследовании убийства, с Эдрианом Полом и Рэйфом Файнсом.

"Офицер и шпион" (2011) - исторический триллер о переписке между Черчиллем и Шарлем де Голлем, с Колином Фертом и Джереми Айронсом.

"Конклав" (2024) - политический триллер о выборах нового папы римского, с Рэйфом Файнсом и Стэнли Туччи.

Эти фильмы отличаются глубоким погружением в исторические детали и напряженными сюжетами. Вы уже читали книги Харриса или смотрели их экранизации?
И только через 3 уточняющих вопроса выдавил из себя полный список:
Вы абсолютно правы. Извините за путаницу. Вот точный список семи фильмов, снятых по книгам Роберта Харриса:

"Фатерланд" (1994) - основан на романе "Отечество".

"Призрак" (2010) - основан на романе "Призрак".

"Мюнхен" (2021) - основан на романе "Мюнхен".

"Офицер и шпион" (2019) - основан на романе "Офицер и шпион".

"Archangel" (2005) - основан на романе "Архангел".

"Enigma" (2001) - основан на романе "Энигма".

"Конклав" (готовится к экранизации).

Теперь у нас действительно полный список фильмов по произведениям Роберта Харриса. Надеюсь, это поможет. Вы уже читали какие-то из этих книг или смотрели фильмы?
10.02.25 09:45
2 2

Лучше Claude:

Но это очень упрямая модель - без понуканий и диалога не колется.

Вот что Клод выдал по точному запросу Экслера выше:


По книгам британского писателя Роберта Харриса было снято несколько заметных фильмов:

1. "Фатерлянд" (Fatherland, 1994) - телефильм по одноименному роману-антиутопии об альтернативной истории, где нацистская Германия победила во Второй мировой войне. В главной роли Рутгер Хауэр.

2. "Энигма" (Enigma, 2001) - фильм о британских криптографах во время Второй мировой войны, снятый по роману "Энигма". Режиссер Майкл Эптед, в главных ролях Дугрей Скотт и Кейт Уинслет.

3. "Призрак" (The Ghost Writer, 2010) - политический триллер по роману "Призрак", режиссер Роман Полански. В главных ролях Юэн Макгрегор и Пирс Броснан.

4. "Офицер и шпион" (J'accuse / An Officer and a Spy, 2019) - исторический фильм о деле Дрейфуса, снятый по роману "Офицер и шпион". Режиссер Роман Полански, в главной роли Жан Дюжарден.

Это основные экранизации произведений Харриса на данный момент. Стоит отметить, что его книги часто затрагивают исторические темы и политические интриги, что делает их привлекательными для киноадаптаций.


Пришлось уточнить:
Дай полный список!

Результат радует (бесплатная версия Соннет 3,5):

Давайте рассмотрим все экранизации произведений Роберта Харриса:

1. "Фатерлянд" (Fatherland, 1994) - телевизионный фильм HBO по одноименному роману. В главных ролях Рутгер Хауэр и Миранда Ричардсон.

2. "Энигма" (Enigma, 2001) - шпионский триллер о взломщиках кодов Блетчли-Парка. В главных ролях Дугрей Скотт, Кейт Уинслет и Сэффрон Берроуз.

3. "Призрак" (The Ghost Writer, 2010) - политический триллер по роману "Призрак". В главных ролях Юэн Макгрегор и Пирс Броснан.

4. "Офицер и шпион" (J'accuse / An Officer and a Spy, 2019) - историческая драма о деле Дрейфуса. В главных ролях Жан Дюжарден и Луи Гаррель.

5. "Мюнхен: На грани войны" (Munich: The Edge of War, 2021) - историческая драма по роману "Мюнхен". В главных ролях Джордж Маккей и Джереми Айронс.

6. "Страх" (Fear, 2023) - телевизионная адаптация романа "Страх" для канала Channel 4.

7. "Согласие" (Conclave) - фильм находится в разработке, по одноименному роману о выборах Папы Римского. Режиссер Эдвард Бергер, в главной роли Рэйф Файнс.

Стоит отметить, что это полный список известных экранизаций на данный момент. Некоторые другие романы Харриса, такие как "Помпеи" и "Цицерон", пока не экранизированы, хотя периодически появляются сообщения о планах их адаптации.
10.02.25 09:18
1 3

Но это очень упрямая модель - без понуканий и диалога не колется.
Как и любая француженка 😄 нужен особый подход
10.02.25 11:17
0 0

Результат радует (бесплатная версия Соннет 3,5):
С каких пор Соннет стал бесплатным?
10.02.25 11:23
0 0

Да всегда вроде был. Отличия платной версии - что можно больше запросов делать.
10.02.25 11:29
0 1

Лучше Claude
Optus или Sonnet?
Claude весьма ограничена для бесплатного использования поэтому я и годовую подписку купил.
10.02.25 20:53
0 0

Если поставить галочку "поиск" то даже 4о отвечает корректно

Романы британского писателя Роберта Харриса неоднократно становились основой для экранизаций. Вот некоторые из них:

- **«Фатерлянд» (1994)**: фильм, основанный на одноимённом романе, представляет альтернативную историю, в которой Германия выиграла Вторую мировую войну.

- **«Энигма» (2001)**: экранизация романа о британских криптографах, пытающихся взломать немецкий шифр «Энигма» во время Второй мировой войны.

- **«Архангел» (2005)**: фильм по мотивам романа, рассказывающий о поисках секретных документов Сталина в постсоветской России.

- **«Призрак» (2010)**: триллер, снятый по одноимённому роману, повествует о писателе, нанятом для написания мемуаров бывшего премьер-министра Великобритании.

- **«Офицер и шпион» (2019)**: фильм, основанный на романе «Дело Дрейфуса», рассказывает о знаменитом деле французского офицера Альфреда Дрейфуса, обвинённого в шпионаже.

- **«Мюнхен: На грани войны» (2021)**: экранизация романа «Мюнхен», посвящённого событиям перед подписанием Мюнхенского соглашения 1938 года.

- **«Индекс страха» (2022)**: мини-сериал по мотивам одноимённого романа, рассказывающий о разработчике искусственного интеллекта, сталкивающемся с опасностями собственного создания.

- **«Конклав» (2024)**: фильм, основанный на романе, описывающем процесс избрания нового Папы Римского после смерти предыдущего понтифика.

Эти фильмы и сериалы отражают разнообразие тем и жанров, к которым обращается Роберт Харрис в своём творчестве.
10.02.25 09:12
0 7

В основном 4o. Результат даёт возможность понять что к чему, и определить направление детального поиска.
С о1 есть некоторые проблемы. Проверял, несколько раз, на тех вопросах которые знаю, и выяснилось что периодически модель даёт просто чудовищно неадекватный ответ. В 4о такого не бывает, дает посредственный, но никогда не даёт совсем неверный ответ. Так что 1о это очень хорошо, но требует проверки.
Deepseek - очень хорошо, но у меня пока очень мало опыта работы с ней. Но пока явных глюков не заметил.
10.02.25 09:10
1 5

Deepseek - очень хорошо, но у меня пока очень мало опыта работы с ней. Но пока явных глюков не заметил.
Deepseek - это очень глубоко.
Глубоко внутри вашего девайса. И это правильно - вам ничего не должно мешать разоружиться перед Партией.
10.02.25 09:22
17 5

А хамить то зачем?
10.02.25 09:24
4 4

А хамить то зачем?
Хамить кому?
КПК?


ЗЫ:
уж и не припомню, чтобы мою писанину тут понимали настолько противоположно сказанному.
10.02.25 09:36
5 4

С о1 есть некоторые проблемы. Проверял, несколько раз, на тех вопросах которые знаю, и выяснилось что периодически модель даёт просто чудовищно неадекватный ответ. ... Так что 1о это очень хорошо, но требует проверки.
Да что же в этом хорошего, млин! Если есть вероятность чудовищно неадекватного ответа, то проверять надо все ответы! Эдак и я с ИИ сравняться могу. "Почему Луна жёлтая?" "Потому что состоит из швейцарского сыра."

А если ответ на важный вопрос должен содержать стопиццот объектов, поди проверь, где среди них лажа вроде упомянутого "Молчания ягнят" (или Slavva — маньяк-потрошитель любитель).

Я считаю склонность ИИ при недостатке информации пороть отсебятину чрезвычайным пороком. Необходимо в императивном порядке научить их все честно говорить "не знаю".
10.02.25 11:30
0 2

Необходимо в императивном порядке научить их все честно говорить "не знаю".
С точки зрения здравого смысла - да, надо. С точки зрения продажников - этого нельзя допустить, по крайней мере не в версии для общего использования. Так что придётся ответы всегда проверять, ну или хотя бы оценивать на уровень здравости, а это значит человек должен иметь хотя бы общие представления о том вопросе был задан ИИ.
В любом случае ИИ это инструмент, и как любой инструмент его надо использовать в соответствии с возможностями и ограничениями.
10.02.25 11:39
1 1

Deepseek - это чатджипити конца 23года с доработками.
Движок был открыт и использован.
Правда, Альтману это не очень понравилось и сейчас идет расследование.
10.02.25 12:09
0 1

Deepseek - это чатджипити конца 23года с доработками.
Движок был
тупо спионерен китайцами.
10.02.25 14:35
0 1

Я использую "Gemini" 😜.

Не могу сказать, что пользуюсь часто, но когда что то нужно, то инфу выдает правдиво. Каких то ложных данных не замечал.
10.02.25 09:09
4 3

Вам пока везёт. До поры. Gemini врёт бесстыдно и с упоением.
10.02.25 10:42
1 1

я что то давно с ChatGPT не игрался, сейчас мучаю DeepSeek, цензура крайне забавно работает, невинные топики(типа эмиграции) часто цензурит, в то же время выдаёт хорошие детальные инструкции как организовать криминальный бизнес, например:)
10.02.25 09:08
4 8

Я стараюсь использовать исключительно ChatGPT-o1 ("думающий" вариант). Причем практически во всех типах запросов, в том числе при кодинге. Остальные фантазируют мама не горюй
10.02.25 09:05
1 2
Теги
Сортировать по алфавиту или записям
BLM 21
Calella 144
exler.ru 281
авто 449
видео 4104
вино 360