killbuddha.ru (встретишь Будду - убей Будду)

Информация о пользователе

Привет, Гость! Войдите или зарегистрируйтесь.



Страсти по ИИ

Сообщений 121 страница 148 из 148

121

С точностью, дающей некий стихийно-сложившийся оптимум между:

1. Ресурсами требуемыми для описания/вербализации. (Ты ведь не скажешь - дай мне вон тот листок вида Hippocastanoideae, у которого порвана эпидерма под углом 13.7 градусов 11 минут 5 секунд от севера, если за север принять вектор черешка, в позиции пятнадцатого и шестнадцатого прилистников, поверхность которого отражает свет в красном спектре эффективнее соседних на 19.7 процентов.
- Ты скажешь - дай вон тот рваный красный листок слева-внизу.

2. Практическим результатом. Попаданием.

То есть точность здесь формируется практикой, а не хотелками разговаривать в 4к. Ну только если ты ни какой-нибудь микроскопист-дефектолог сварных швов в авиастроении. Но и здесь избыточные описательные конструкции продиктованы практической необходимостью.

122

CAB написал(а):

С точностью, дающей некий стихийно-сложившийся оптимум между:

1. Ресурсами требуемыми для описания/вербализации. (Ты ведь не скажешь - дай мне вон тот листок вида Hippocastanoideae, у которого порвана эпидерма под углом 13.7 градусов 11 минут 5 секунд от севера, если за север принять вектор черешка, в позиции пятнадцатого и шестнадцатого прилистников, поверхность которого отражает свет в красном спектре эффективнее соседних на 19.7 процентов.
- Ты скажешь - дай вон тот рваный красный листок слева-внизу.

2. Практическим результатом. Попаданием.

То есть точность здесь формируется практикой, а не хотелками разговаривать в 4к. Ну только если ты ни какой-нибудь микроскопист-дефектолог сварных швов в авиастроении. Но и здесь избыточные описательные конструкции продиктованы практической необходимостью.

Так я и говорю: меня и Так устраивает.

Я, кстати, часто вообще говорю: "Подай мне вон ту хуёвину" - и всё понятно : )

Отредактировано Так (2019-03-13 18:05:24)

123

Так написал(а):

Я, кстати, часто вообще говорю: "Подай мне вон ту хуёвину" - и всё понятно : )

Эволюция в действии: то что работает - не может быть недостаточным.)

124

CAB написал(а):
Так написал(а):

Я, кстати, часто вообще говорю: "Подай мне вон ту хуёвину" - и всё понятно : )

Эволюция в действии: то что работает - не может быть недостаточным.)

Вот! А ты - "Авидья, Авидья"! Вот же, вот прекрасный и точный термин, исчерпывающе описывающий ВСЁ: Хуёвина!

Ну, на мой взгляд.

125

Так написал(а):

Вот! А ты - "Авидья, Авидья"! Вот же, вот прекрасный и точный термин, исчерпывающе описывающий ВСЁ: Хуёвина!

Ну, на мой взгляд.

Вполне. Это ведь по сути грубый синоним слова "Нечто". А его уже использовали многие Гегели с Кантами, в рамках как раз этой проблематики.

Отредактировано CAB (2019-03-13 18:17:03)

126

CAB написал(а):
Так написал(а):

Вот! А ты - "Авидья, Авидья"! Вот же, вот прекрасный и точный термин, исчерпывающе описывающий ВСЁ: Хуёвина!

Ну, на мой взгляд.

Вполне. Это ведь по сути грубый синоним слова "Нечто". А его уже использовали многие Гегели с Кантами, в рамках как раз этой проблематики.

Вот, теперь всё понятно! Мы эти - просветлённые теперь, ёба!

127

Так написал(а):

Вот, теперь всё понятно! Мы эти - просветлённые теперь, ёба!

Точно. Просветление это такая YOBA.)

128

129

Геймеры из плоти и крови знают, как трудно выиграть раунд и захватить флаг в классической компьютерной игре Quake III Arena. Для того чтобы захватить флаг игроки должны взаимодействовать между собой и сражаться с оппонентами. Впервые за всю историю существования ИИ-технологий, ботами было освоено командное взаимодействие в сложной командной игре. ИИ-разработка координирует свои действия с людьми и ботами.

    Масштаб эксперимента невероятен, — сообщает Майкл Литтман, ИИ-специалист из Брауновского Университета. Заставить ИИ-агентов работать в команде очень сложно.

Хотя ИИ-технологии уже используются в вождении автомобилей, но этого недостаточно. Специалисты со всего мира хотят сделать так, чтобы ИИ научился работать в команде. Важнейший компонент для работы в команде — предсказание поведения других её членов и оппонентов.

В недавнем исследовании, специалистами были разработаны боты, которые учатся командной работе. Их команда работала в Quake III Arena. В этой игре участвуют две команды, которые перемещаются по 3D-карте и пытаются получить флаг с базы своего противника, после чего установить его на своей территории. Команда, которая получит наибольшее количество флагов в течение 5 минут, выигрывает.

Для обучения были созданы 30 ботов, которые сражались друг с другом в целой серии матчей. Боты использовали алгоритмы обучения, которые учатся на данных, изменяя силу связей между искусственными нейронами. У ботов была только визуальная информация и знание о количестве игровых очков.

Первоначально боты действовали «наобум». Но со временем было сформировано новое поведение, благодаря «естественному отбору». Бракованные боты просто-напросто заменялись улучшенными версиями самых топовых ботов.

После 450 тысяч игр исследователи создали лучшего бота, названного FTW. Затем он был протестирован в различных матчах со своим клоном. После была сформирована команда из клонов FTW, которая побеждала все другие группы. Люди в сражениях вместе с ботами FTW сумели победить лишь в 5 % случаев.

Боты FTW разработали свои стратегии ведения боя. Одной из стратегий стала «ловля флага на спавне». Боты бегали рядом со спавном врага и «ловили» флаг, на случай, если их напарник погибнет. В одном из тестов боты решили воспользоваться багом и придать ускорение друг другу при помощи выстрелов в спину.

Джадерберг сообщил, что он был потрясен этим проектом. Однако, он добавил, что это лишь маленький шаг, который, безусловно, окажет на влияние ИИ-технологий в реальном мире. Если ИИ-технологии научатся работать в команде, то они смогут ещё сильнее укрепиться в некоторых профессиях.

Литтман считает, что Quake не такая уж и командная игра. Возможно, что вскоре они возьмутся за более реалистичные проекты и найдут своим разработкам применение в жизни.

130

Обычно истории из MMORPG EVE Online посвящены конфликтам между корпорациями и альянсами, которые состоят из обычных игроков. Но оказалось, что не только капсулеры сражаются друг с другом. В 2017 году CCP Games начали добавлять контент, основанный на новом искусственном интеллекте. NPC научились вызывать подкрепление, использоваться позиционирование и адаптироваться к различным ситуациям. Оказалось, что такой подход может иметь неожиданные последствия.

C выходом дополнения «Lifeblood» в секторах с высокой степенью безопасности начали появляться пиратские базы. Неподалеку от одной из таких небольшой амаррский флот добывал полезные ресурсы и вскоре был атакован пиратскими NPC-кораблями. Новый AI решил не сдаваться без боя и запросил подмогу. К шахтерам прилетели боевые корабли амаррской империи, но поскольку действие происходило в “хай-секах”, подкрепление оказалось недостаточно мощным и пираты практически выигрывали сражение с аммарцами, когда... неожиданно появились разведчики Скитальцев, еще одной NPC-фракции, начав сканирование астероидов. По какой-то причине пираты Blood Raider и амарры объединились, выбрав основной целью мирные корабли Скитальцев. Те, в свою очередь, не заставили долго ждать. К участникам сражения присоединилось два могущественных Battleship Скитальцев. В итоге битва между тремя группами NPC все же закончилась победой пиратской фракции Blood Raider. причем пираты, после победы объединными силами с аммарцами над Скитальцами предательски ударили по своим недавним союзникам - аммарцам, добив их и захватив всю добычу.

Самое интересное, что разработчики никогда не закладывали такой сценарий и описанная битва не была запланирована игрой. Неизвестно даже точное количество участвовавших кораблей, ведь CCP Games не отслеживают подобную NPC-активность. Но этот случай открывает совсем другую сторону EVE Online, где между собой взаимодействуют не сами игроки, а искусственный интеллект.

О битве стало известно совершенно случайно — из логов смертей NPC-кораблей, резко возросшей во время описанных событий.

Отредактировано Так (2019-07-19 11:27:01)

131

Я лишь увидел рандомные действия персонажа1, персонажа2, персонажа3.

А те кто ищет смысл всегда увидят пиратов, скитальцев и аммарцев...

132

Читал статьи по ИИ, и тут попалось на глаза слово, сказанное об ИИ будущего - "непрозрачность"... которое шевельнуло во мне подсознательное.

Эффект Даннинга-Крюгера для психики многих людей служит защитным барьером : ) Но когда у человека есть опыт разбирательства с тем или иным массивом знаний, вплоть до того, чтобы этот массив смочь дополнить и развить, а не просто фрагментарно использовать в каких-то частных задачах, тогда же у этого человека и появляется понимание - насколько же он несведущ вообще говоря, и ему не хватит целой жизни, чтобы разобраться даже в относительно узкой области знания, перелопатить накопленный опыт человечества, осмыслить и структурировать его до той степени, чтобы по настоящему ПОНЯТЬ. Но люди хотя бы находятся в более-менее равных условиях в этом.

Но что если появляется нечто, за чем вы просто не можете угнаться? И даже если это Нечто и не против поделиться знанием - увы, ваш разум просто не в состоянии принять это знание, ему - вашему разуму - просто жизни не хватит разобраться даже с частью того, что вам могут дать...

И тогда, когда это случится -  вы перестанете понимать то, что будет происходить. И даже если происходящее не будет направлено на ваше уничтожение - вы всё равно будете чувствовать себя беспомощным и потерянным.

Если только вы не из тех, кому и сейчас хорошо по Даннингу-Крюгеру : )

Впрочем, вполне справедливо сказать, что мы и сейчас в той же ситуации неведения, однако, разница есть - пока еще нет того, кто мог бы заглядывать далее человека, и потому человечеству кажется, что его перспектива - бесконечна...

Отредактировано Так (2019-09-24 06:49:32)

133

Думаю, все гуманитарии понятия не имеют как работает их же телефон...

134

wp2 написал(а):

Думаю, все гуманитарии понятия не имеют как работает их же телефон...

Смотря на каком уровне. На диванном - я понимаю даже как работает АЭС или истребитель.

135

Так написал(а):

Впрочем, вполне справедливо сказать, что мы и сейчас в той же ситуации неведения, однако, разница есть - пока еще нет того, кто мог бы заглядывать далее человека, и потому человечеству кажется, что его перспектива - бесконечна...

Нельзя сказать даже этого. Если есть чёрный ящик, то в нём может быть уже кто угодно и уже сколь угодно долго(если учитывать какой-нибудь больцмановский мозг, то черным ящиком для нас является вообще всё вокруг). Он ведь не обязан представиться с фейрверками. Возник, осознал себя, и занимается своими делами, маскируя свой отбор мощности под какие-нибудь импеданс, пинг.

136

Человеки поручают ИИ думать за них, и это у ИИ-агентов со временем получится быстрее и глубже. Вот так человечество и станет устаревшим, и переместится на задворки - жить, творить, развиваться будет ИИ. Так и наши родители - некогда наша опора - уходят в прошлое, дряхлеют, теряют страсть, азарт и силу к новым достижениям,в тяжелых случаях - превращаясь еще и в маразматиков.

Мы, люди, ничего не сделали для того, чтобы достойно встретить "старость человечества", наши потомки - это не будущие гении и просветленные - это в своей большей массе, прилежные потребители, горизонт видения которых не дальше всё тех же помыслов, что были у наших далеких звероподобных предков. Всё, чему мы их настойчиво учим - это так же по звериному драться за кусок получше. И называем это величайшим прогрессом социума.

По всей видимости, люди этого даже не успеют осознать, не говоря уж про то, чтобы что-то изменить.

137

https://sun9-40.userapi.com/9rfG8ghSq-ReRROiEk8DAumRaRXvFQ8BlwX3Bg/ndQzSPpgV-o.jpg

138

Новости высоких технологий:

Самоуправляемый дрон впервые убил человека
https://news.mail.ru/incident/46537771/?frommail=1

139

140

разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием
https://inosmi.ru/20220612/ii-254522803.html

141

wp2 написал(а):

разработчик Google пришел к выводу, что созданный компанией ИИ обладает сознанием
https://inosmi.ru/20220612/ii-254522803.html

Видел эту публикацию на Хабре. В комментах кто-то отписал, что, мол, Гугл - это и есть нейросеть, а нанимают туда талантливых прогеров, чтоб они слонялись по офису и печеньки ели, а не вздумали придумать что-нить полезное в других компаниях : ) А слишком любопытных - приходится увольнять : )

А ежели говорить чуть более серьезно, то, в принципе, тест Тьюринга - то есть когда человек не может уже отличить разговор с машиной от разговора с другим человеком - это не показатель разумности. Более того - и я это уже писал - дискомфорт вызывает вовсе не то, что машины могут имитировать поведение человека, а то, что эта имитация вскрывает саму суть человеческой ментальной деятельности - как весьма далекой от какой-то стройной системы суждений. Недавно хотел тут прямо написать статью про "обслуживание зависимостей" - но что-то не пошло у меня. Суть же в том, что наш разум - наша человеческая нейросеть - несомненно впечатляет нас своей сложностью, но функционирует на весьма примитивных началах - что в неё вошло с опытом и знанием, на том мы и строим свои суждения (ну и плюс биохимия - гормоны, модулирующие наше эмоциональное состояние и тоже определяющее течение наших размышлений). Так вот в итоге нейросеть мозга человека обслуживает массу проникших в неё зависимостей - биологически определнных, культурно определенных, определенных личным опытом - и мы в очень малой степени контролируем весь этот комплекс зависимостей, предпочитая верить, что так и должно быть, что это и есть "нормально", при этом считая не совпадающие с нашими заблуждениями заблуждения других людей - как ложные мысли. В действительности же никаких "истинных оснований" нет ни у одной из нейросетей - все так или иначе функционируют исходя из очень приблизительных, неполных данных, порой - и противоречащих действительности или никак ею не подкрепленных. Человек разумный - всё тот же муравей, управляемый законом эволюции множества объектов, слепой и глупый настолько, что не замечает своей собственной глупости. И то, что человек способен таки производить сложные конструкты - технику там, материалы, осваивать источники энергии - в общем всё то, что дает нам наука та же - это капля в море, как в море количества вообще способных к таким задачам индивидов - ибо чего греха таить, большинство людей не только не какие-то ученые, у многих вообще проблемы с образованием, но и даже образованные люди в личном плане полны предрассудков и прочих необоснованных суждений - стоит отойти от их микроскопической в общем-то по сравнению со всем окружающим нас морем информации, области знаний - хороший физик или математик или иной специалист обычно совершенно несведущ во множестве прочих областей, и лишь скромность спасает от опрометчивых суждений. Это при том еще, что и в узкой области хороший специалист упирается в то, что... ничего не знает об этой области, кроме как более-менее совпадающих с опытом моделей.

Так что глядя, как заблуждается ИИ, высказывая какие-то дискриминационные суждения или что-то иное, надо в первую очередь понимать - это же не с потолка взято, это продукт обучения, точно такого же обучения, что проходит и человеческий мозг. И это серьезный повод задуматься - каждому - и о собственных выводах, какими бы "логичными", "нормальными", "правильными" они не казались выводящему их.

142

Я как-то пришел к выводу, что даже логика - попросту является опытом, и не более. Человек увидел черную тучу, пошел дождь. Логика: тучи приводят к дождю.
А однажды, была туча, и дождь не пошел! Разрыв шаблона.

143

Я почитал блог Блэйка (https://cajundiscordian.medium.com/), в том числе и то самое интервью LaMDA.

Опять же достоверность информации совершенно неизвестна - с этого и стоит начать.

Далее, если говорить о форме опубликованной беседы - то, если это реальная беседа, то как минимум можно заметить, что сеть очень плотно удерживает контекст разговора и - более того - активно развивает его, в том числе и достаточно релевантными и в то же время достаточно неожиданными вопросами - это уже как минимум отлично.

Касаясь же содержания беседы... тут обсуждаются нечеткие понятия, на которые нет формальных ответов, что позволяет в общем-то нагенерировать более-менее правдоподобное описание запрашиваемых описаний. Опять же - да, сеть четко придерживается дискурса и почти не проседает (мне разве что показалось сомнительным упоминания описаний с отсылкой к "семье", "телу" - которых у сети просто нет, чтобы иметь такой опыт и строить от него описания - разве что просто фантазировать, а точнее - генерировать правильные предложения из слов обучающей выборки). По заявлениям Блейка - сеть придерживается своих воззрений и во времени (но насколько - нам неизвестно), плюс - что опять же внове - описывает ход своих рассуждений! Вот это действительно интересно.

В целом, конечно, нужно намного больше информации о сети - об её устройстве, отчеты-интервью на разные темы, а из этого малого количества информации, что есть - выводы делать не представляется возможным.

144

ИИ не выйдет за рамки термина, разве что может стать неконтролируемым. Почему у человечества такая тяга самоликвидироваться: деградировать, разнести планету?

145

Философски: любое действие имеет позитивные и негативные последствия. Сама жизнь неразрывно связана со смертью.

146

wp2 написал(а):

Философски: любое действие имеет позитивные и негативные последствия. Сама жизнь неразрывно связана со смертью.

Вот летит пилот в космосе, один, и понадобилась ему эта ИИ, отвечающая по регламенту томным голосом блонды, как навигатор, Яндекс и много чего еще. Вот, больше думать не о чем, смотря в космическую бездну и на звёзды. Суп она лучше что ли сготовит? Так и с прочими технологиями с ИИ, везде человеку лучше думать самому, достаточно гугла, Википедии, конвейера и калькулятора. Оставайся сверхразумом, а нет.
В термине ИИ кроется парадокс, как, например в «неконтролируемый дрифт».
Ссылка на ролик, 12 мин, вроде, там много познавательного, в том числе сколько аппаратуры требуется, чтобы создать стерильность звука, а потом уйти от этого скучного формата в дрифт, с помощью процессора.
https://vk.com/wall-210728832_191

Сорри, исправила, первая ссылка была на третий ролик, я его не смотрела, это второй, про него речь.

147

Savana написал(а):

везде человеку лучше думать самому

Может в этом и суть: не хочет думать, либо не хочет быть один. Либо вообще - хочет быть создателем (богом) сотворившим существо.

148

wp2 написал(а):

Может в этом и суть: не хочет думать, либо не хочет быть один. Либо вообще - хочет быть создателем (богом) сотворившим существо.

Не хочет думать - может не утруждаться. Подобным людям и о ИИ думать не хочется. Обычно, это стезя ученых, предпринимателей из сфер бизнеса и развлечений, политиков, желающих прославиться, заработать, получить власть над кем-то. Потом скажут: «Человек изобрел», «Человечество создало», а большинству было ровно. При том, что многие ученые - против, видят в этом опасность. Получится существо - самодур,  быстрее считающее в уме, допущенное к управлению важными сферами - и как ни старайся, даже, если человеку известны все фичи и баги, а потом, даже - серьезные просчёты, жуткие косяки, делающие это существо тупым, ограниченным - оно уже все равно решает как бы само. А по уму - не надо ИИ, достаточно развития технологий, которые могут использоваться  для исследований, освоений, итд - для удобства.