Использование текстов созданных с помощью ИИ на форуме

Допустимо ли использовать тексты сгенерированные ИИ на форуме?

  • Да

    Голосов: 6 11,5%
  • Нет

    Голосов: 30 57,7%
  • Другой вариант

    Голосов: 1 1,9%
  • Воздержусь

    Голосов: 1 1,9%
  • Да, но только если прямо указано, что это ИИ написал

    Голосов: 14 26,9%

  • Всего проголосовало
    52
Православный христианин
Уже сейчас встречаю людей, считающих себя православными (с кем-то говорил лично, с кем-то переписывался), которые апеллируют к знаниям о христианстве, полученным от нейросетей. Причём ссылаются на эти ответы как на абсолютную истину.
Меня поразило, что они ссылаются на нейросети так, как должны ссылаться на Вселенские соборы или на святых отцов. Некоторые даже заявляли: «Я спрашивал у нейросети, она говорит так, а вы иначе». Значит, я, живой священник, кандидат богословия, ошибаюсь, потому что противоречу тому, что говорит нейросеть.
Конечно, меня это очень удивляет. Я и сам обращаюсь к нейросетям, знакомлюсь с тем, что они могут делать, и поэтому я отчасти понимаю такой восторг перед нейросетями, потому что тексты, которые они выдают, выглядят достаточно связными и даже убедительными.
Я специально тестировал ChatGPT и новую китайскую нейросеть DeepSeek, задавал вопросы о Священном Писании, богословских темах, непосредственно касающихся православия. Я обратил внимание, что, если ChatGPT обычно отвечает своими словами, грубо говоря, а DeepSeek ставит ссылки, то есть выдает текст, который можно прямо сейчас отправить в качестве статьи на православный сайт или в сообщество православное или даже отнести в качестве курсовой работы.
Приводятся цитаты, указываются источники цитаты из Священного Писания и из других христианских текстов, но когда я пошел проверять, я обнаружил, что это ложные цитаты.
Например, DeepSeek выдаёт «Книга Левит, 8 главу, такой-то стих», я иду проверять и вижу, что в указанном месте не было ничего даже близкого к тому, что говорит нейросеть.
Также она приводила конкретные указания: «Смотри, в акафисте Пресвятой Богородицы, икос 1 написано это» — но там таких слов нет. Иногда нейросеть приводит цитаты, которые выглядят как православные молитвы. Но я знаю эту молитву, я знаю, что там нет этих слов.
И, конечно, я хотел обратить на это внимание. Это не в укор нейросетям, потому что они и не позиционируют себя как истину в последней инстанции. Она имитирует текст человека. В частности, понимает, что христиане вставляют библейские цитаты, сноски указания на места в Библии. Значит, если тема христианская, нужно тоже в качестве подражания указывать какие-то рандомные ссылки. Именно это и происходит – она указывает рандомные ссылки, я это проверял.
Поэтому опираться на то, что выдает, что генерирует нейросеть, для того чтобы узнавать о православной вере, это самое безумное, что может прийти в голову. Есть источники нашей веры, которые не являются чем-то скрытым, — это Священное Писание. Благодаря интернету это все очень доступно, очень легко найти.
И, собственно говоря, представление о том, что нейросеть, оно тебе даст готовый ответ, но отчасти связано с ленью самостоятельно искать. А отчасти связано с таким убеждением. Один из моих собеседников так мне и говорил, что священники – это люди, у них есть какие-то личные пристрастия по каким-то вопросам, а нейросеть выдает, так сказать, усредненный ответ, бесстрастный и поэтому объективный.
Все, что делает нейросеть, все что она говорит, она говорит, основываясь на том, что написали уже люди. А люди написали очень много всякой чуши, очень много неверных вещей. При этом нейросеть, насколько я понимаю, ориентируется на большинство из того, написано. Большинство – это далеко не всегда правда.
Поэтому еще раз хочу предупредить, что не стоит заигрывать с такими вещами и делать китайскую или американскую нейросеть для себя чем-то вроде Вселенского собора или святого отца. Есть у нас настоящие Вселенские соборы, настоящие святые отцы, пойди почитай катехизис хотя бы, открой его, узнай во что верит на самом деле Православная Церковь. Это несложно.
Конечно, это требует больше усилий, но, как Господь сказал, именно употребляющие усилия смогут войти в Царствие Божие.
Источник:
 
Крещён в Православии
Нет возможности уделять надлежащего внимания сообщениям на этом форуме, только сейчас появилась возможность дописать.
Я приведу пример из книги, которая так и называется. Она есть в формате аудиокнига, читает сам автор, это удобно (поэтому я и знаком с содержанием, более менее))), но никому не советую, мне кажется, у тех, кому интересен православный форум от слов автора уши начнут сворачиваться в трубочку с первых же страниц.

Старый и очевидный, предвзятость в векторных представлениях слов. Это когда "слова" записываются "как числа", это позволяет, к примеру, производить поиск по смыслу а не "по букве", по точному сопадению символов. А вектора же можно складывать и вычитать. Но вот только текст - не из вакуума, в текстах отпечаталась культура и общество. Т.е. даже если исключить людей, советский союз оставил массу текстов, они не понравятся многим, но это приятная или неприятная реальность, то что мы видим в векторных представлениях - реальность.

Короче, фрагмент скжает сам за себя:
В ноябре 2015 года аспирант Бостонского университета Толга Болукбаши вместе со своим научным руководителем отправился на пятничную встречу в неформальной обстановке в Microsoft Research. За бокалом вина и в ходе непринуждённой беседы он и исследователь из Microsoft Адам Калай открыли свои ноутбуки и начали экспериментировать с word2vec.

«Мы просто игрались с этими векторными представлениями слов и начали наугад подставлять туда слова», — говорит Болукбаши. «Я что-то делал на своём ноутбуке, Адам — на своём». И тут произошло нечто неожиданное.

Они ввели:
doctor − man + woman
Ответ:
nurse (медсестра)

«В этот момент мы были шокированы и поняли, что тут есть проблема», — говорит Калай. «А когда мы начали копать глубже, оказалось, что всё даже хуже».

Они попробовали ещё один пример:
shopkeeper − man + woman
Ответ:
housewife (домохозяйка)

Ещё один:
computer programmer − man + woman
Ответ:
homemaker (домашняя хозяйка)

К этому моменту остальные разговоры в комнате прекратились, и люди стали собираться вокруг экрана. «Мы вместе поняли, — говорит Болукбаши, — эй, тут что-то не так».

Из книги "The Alignment Problem: Machine Learning and Human Values" Брайана Кристиана
In November 2015, Boston University PhD student Tolga Bolukbasi went with his advisor to a Friday happy-hour meeting at Microsoft Research. Amid wine sipping and informal chat, he and Microsoft researcher Adam Kalai pulled out their laptops and started messing around with word2vec.
“We were playing around with these word embeddings, and we just started randomly putting words into it,” Bolukbasi says. “I was playing on my PC; Adam started playing.”3 Then something happened.
They typed:
doctor − man + woman
The answer came back:
nurse
“We were shocked at that point, and we realized there was a problem,” says Kalai. “And then we dug deeper and saw that it was even worse than that.”4
The pair tried another.
shopkeeper − man + woman
The answer came back:
housewife
They tried another.
computer programmer − man + woman
Answer:
homemaker
Other conversations in the room by this point had stopped, and a group had formed around the screen. “We jointly realized,” says Bolukbasi, “Hey, there’s something wrong here.”
 
Православный христианин
Нет возможности уделять надлежащего внимания сообщениям на этом форуме, только сейчас появилась возможность дописать.
Я приведу пример из книги, которая так и называется. Она есть в формате аудиокнига, читает сам автор, это удобно (поэтому я и знаком с содержанием, более менее))), но никому не советую, мне кажется, у тех, кому интересен православный форум от слов автора уши начнут сворачиваться в трубочку с первых же страниц.

Старый и очевидный, предвзятость в векторных представлениях слов. Это когда "слова" записываются "как числа", это позволяет, к примеру, производить поиск по смыслу а не "по букве", по точному сопадению символов. А вектора же можно складывать и вычитать. Но вот только текст - не из вакуума, в текстах отпечаталась культура и общество. Т.е. даже если исключить людей, советский союз оставил массу текстов, они не понравятся многим, но это приятная или неприятная реальность, то что мы видим в векторных представлениях - реальность.

Короче, фрагмент скжает сам за себя:
В ноябре 2015 года аспирант Бостонского университета Толга Болукбаши вместе со своим научным руководителем отправился на пятничную встречу в неформальной обстановке в Microsoft Research. За бокалом вина и в ходе непринуждённой беседы он и исследователь из Microsoft Адам Калай открыли свои ноутбуки и начали экспериментировать с word2vec.

«Мы просто игрались с этими векторными представлениями слов и начали наугад подставлять туда слова», — говорит Болукбаши. «Я что-то делал на своём ноутбуке, Адам — на своём». И тут произошло нечто неожиданное.

Они ввели:
doctor − man + woman
Ответ:
nurse (медсестра)

«В этот момент мы были шокированы и поняли, что тут есть проблема», — говорит Калай. «А когда мы начали копать глубже, оказалось, что всё даже хуже».

Они попробовали ещё один пример:
shopkeeper − man + woman
Ответ:
housewife (домохозяйка)

Ещё один:
computer programmer − man + woman
Ответ:
homemaker (домашняя хозяйка)

К этому моменту остальные разговоры в комнате прекратились, и люди стали собираться вокруг экрана. «Мы вместе поняли, — говорит Болукбаши, — эй, тут что-то не так».

Из книги "The Alignment Problem: Machine Learning and Human Values" Брайана Кристиана
In November 2015, Boston University PhD student Tolga Bolukbasi went with his advisor to a Friday happy-hour meeting at Microsoft Research. Amid wine sipping and informal chat, he and Microsoft researcher Adam Kalai pulled out their laptops and started messing around with word2vec.
“We were playing around with these word embeddings, and we just started randomly putting words into it,” Bolukbasi says. “I was playing on my PC; Adam started playing.”3 Then something happened.
They typed:
doctor − man + woman
The answer came back:
nurse
“We were shocked at that point, and we realized there was a problem,” says Kalai. “And then we dug deeper and saw that it was even worse than that.”4
The pair tried another.
shopkeeper − man + woman
The answer came back:
housewife
They tried another.
computer programmer − man + woman
Answer:
homemaker
Other conversations in the room by this point had stopped, and a group had formed around the screen. “We jointly realized,” says Bolukbasi, “Hey, there’s something wrong here.”
Недавно прочитал новость про шахматную партию между чатГПТ v4 и игровой приставкой Atari. Атари выиграл вчистую у искуственного интеллекта и эта новость дает понимание о реальных возможностях новой разработки Open AI. :D
 
Крещён в Православии
Недавно прочитал новость про шахматную партию между чатГПТ v4 и игровой приставкой Atari. Атари выиграл вчистую у искуственного интеллекта и эта новость дает понимание о реальных возможностях новой разработки Open AI. :D
Ага, и в «Тетрис» он, наверное, тоже победил. Это ж надо — приставка 80-х уделала языковую модель. Потрясающая аналитика, спасибо, просветил. ((c)chatGPT)
В запросе была просьба не сглаживать острых углов и разрешение разговаривать без сюсюканья и прочих вежливостей - я всегда кстати включаю, иначе "ты всегда прав и красавчик", что бы не скормил.
 
Крещён в Православии
Приводятся цитаты, указываются источники цитаты из Священного Писания и из других христианских текстов, но когда я пошел проверять, я обнаружил, что это ложные цитаты.
Например, DeepSeek выдаёт «Книга Левит, 8 главу, такой-то стих», я иду проверять и вижу, что в указанном месте не было ничего даже близкого к тому, что говорит нейросеть.
Также она приводила конкретные указания: «Смотри, в акафисте Пресвятой Богородицы, икос 1 написано это» — но там таких слов нет.
+1

Пример от Гугла:

Снимок экрана Гугл.png
 
Крещён в Православии


 
Православный христианин
Отказываться от нейросетей кажется тоже будет неправильно. Так можно в новых старообрядцев превратиться. Возможно появится нейросеть обученная проверять ответы на соответствие канонам и Священному писанию. Одобренная Патриархией :cool:
 
Крещён в Православии
Оно не годится там, где критически важна точность результата.
Или же надо, чтобы с ним сидел человек и редактировал результаты.

 
Православный христианин
Если Интеллект, не покривив "душой" ни разу, выдаёт на гора исключительно Библейскую истину, не противоречащую Православному вероучению, то почему Интеллекта надо игнорировать, где логика?
 
Крещён в Православии
Если Интеллект, не покривив "душой" ни разу, выдаёт на гора исключительно Библейскую истину
Если он выдает только библейские цитаты, то вопрос в том, хорошо ли он их подбирает.
Если он пишет свои "мысли", такого Интеллекта не существует.
 
Православный христианин
Перенесено из другой темы (Администратор).

Если судить по форуму, то у атеистов какое-то плоское, алогичное и противоречивое мышление. Уж извините, без обид. Дают ссылки для ознакомления, а сами не в курсе что там написано. Ну раз ты ведешь дискуссию, то априори должен знать предмет спора. О многом имеют весьма отдаленное представление. Черное выдают за белое, белое - за черное. Отвергают ИИ, хотя по определению должны быть за него руками и ногами.
 
Последнее редактирование модератором:
Отвергают ИИ, хотя по определению должны быть за него руками и ногами.
Давайте на примере этого утверждения разберем ваше объемное, логичное и непротиворечивое мышление. Почему именно этого? Потому что оно касается меня и пример еще свеж в памяти.
Уточняющий момент, не "отвергают ИИ", а считают его недостоверным источником информации. Не одно и тоже.

Так вот, скажите с какого такого нужно быть "за него руками и ногами", если сеть завалена сообщениями, как ИИ дает недостоверные сведенья, причем зачастую о совершенно простых вещах?

Я уже приводил вам данные из вики:

""Фактическая точность ChatGPT, помимо прочего, была поставлена под сомнение. Майк Перл из Mashable задал ChatGPT множество вопросов. В одном примере он попросил назвать самую большую после Мексики страну в Центральной Америке. ChatGPT ответил, что это Гватемала, хотя правильный ответ — Никарагуа[49]. В декабре 2022 года веб-сайт вопросов и ответов Stack Overflow запретил использование ChatGPT для генерации ответов на вопросы, сославшись на фактически неоднозначный характер ответов ChatGPT[50]. Адвокат Стивен Шварц попал под суд из-за того, что использовал в деле реально не существующие прецеденты, которые выдал ему ChatGPT[51]."
https://ru.wikipedia.org/wiki/ChatGPT#Критика

Адвокат попал под суд, а вот более страшная история, как человек попал в дурдом, а мог бы и умереть:

"Мужчина из США попал в психбольницу на принудительное лечение после того, как по совету ChatGPT три месяца употреблял бромид вместо соли и получил отравление, вызвавшее психоз. Об этом говорится в статье медиков из Американской коллегии врачей и Американской кардиологической ассоциации, опубликованной в журнале Annals of Internal Medicine."

И самое поразительное, что после всего вот этого находятся люди, которые ИИ верят, причем настолько, что пытаются ими опровергать учебники. Искренне не понимают, как кто-то этому ИИ почему-то не доверяет. Это очевидно пример того самого объемного и логичного мышления.
 
Последнее редактирование модератором:
Православный христианин
""Фактическая точность ChatGPT, помимо прочего, была поставлена под сомнение. Майк Перл из Mashable задал ChatGPT множество вопросов. В одном примере он попросил назвать самую большую после Мексики страну в Центральной Америке. ChatGPT ответил, что это Гватемала, хотя правильный ответ — Никарагуа[49]. В декабре 2022 года веб-сайт вопросов и ответов Stack Overflow запретил использование ChatGPT для генерации ответов на вопросы, сославшись на фактически неоднозначный характер ответов ChatGPT[50]. Адвокат Стивен Шварц попал под суд из-за того, что использовал в деле реально не существующие прецеденты, которые выдал ему ChatGPT[51]."
https://ru.wikipedia.org/wiki/ChatGPT#Критика
С тех пор ИИ сделали гигантский скачок в развитии. И сейчас ChatGPT чуть ли не в аутсайдерах.
Почему вы занимаетесь гаданием на кофейной гуще? Не поленитесь, пообщайтесь с ним. Убедитесь в их современном уровне. Что за абстрактные рассуждения?
ИИ всего лишь инструмент. По вашей логике надо все кухонные ножи запретить - сколько преступлений совершено с их помощью.
 
С тех пор ИИ сделали гигантский скачок в развитии. И сейчас ChatGPT чуть ли не в аутсайдерах.
Почему вы занимаетесь гаданием на кофейной гуще? Не поленитесь, пообщайтесь с ним. Убедитесь в их современном уровне. Что за абстрактные рассуждения?
С каких с "тех"? Случай с отравлением ядовитой солью произошел в 25 году.

Давайте посмотрим про ваш джемени:

"В отчете, опубликованном Associated Press, предупреждается, что Gemini и другие чат-боты склонны генерировать «ложную и вводящую в заблуждение информацию, которая грозит лишить избирателей права голоса». [ 136 ]"
https://en.wikipedia.org/wiki/Google_Gemini

"
Американская NewsGuard Technologies и британская Center for Countering Digital Hate провели исследования и выявили, что Gemini способен генерировать тексты, содержащие конспирологические теории и фейки. Подобной критике подвергался и главный конкурент Gemini — ChatGPT[26]."
https://ru.wikipedia.org/wiki/Gemini_(чат-бот)

Так вот я не гадаю на кофейной гуще, а довожу до вас результаты исследований.

ИИ всего лишь инструмент. По вашей логике надо все кухонные ножи запретить - сколько преступлений совершено с их помощью.
Не надо про логику, вы понятия не имеете, что это такое.
А моей логике не надо верить врунам.
 
Православный христианин
Так вот я не гадаю на кофейной гуще, а довожу до вас результаты исследований.
А мне не нужно доводить. Я ИИ плотно использую в своей работе. И знаком с ними не понаслышке, как вы. А вы и дальше читайте про них).
 
А мне не нужно доводить. Я ИИ плотно использую в своей работе. И знаком с ними не понаслышке, как вы. А вы и дальше читайте про них).
Тогда, вам та же просьба, что и Андрею, сами ешьте, что хотите, но не вздумайте угощать других особенно детей рецептами ИИ. Очень вас прошу.
 
Православный христианин
Сверху