Хотите как в США?
Wed, 14 Jan 2026 09:12:19 +0300
В США, если купить новый телевизор и уложить старый сломаный в коробку от нового, заботливый человек придет и утилизирует его за вас.
Вера в человечество еще жива.
Wed, 14 Jan 2026 09:12:19 +0300
В США, если купить новый телевизор и уложить старый сломаный в коробку от нового, заботливый человек придет и утилизирует его за вас.
Вера в человечество еще жива.
Кому погода плохая, а кому-то Погода для искусства..
Tue, 13 Jan 2026 21:49:35 +0300
Как он это сделал?
Красавец,слов нет...
Tue, 13 Jan 2026 21:49:35 +0300
Как он это сделал?
Красавец,слов нет...
Осторожно, ИИшница!
Wed, 14 Jan 2026 08:25:37 +0300
Один из пользователей интернета обратился к ИИ с просьбой отретушировать снимок, сделанный в его первый класс советской школы. Вот какой результат вышел

Wed, 14 Jan 2026 08:25:37 +0300
Один из пользователей интернета обратился к ИИ с просьбой отретушировать снимок, сделанный в его первый класс советской школы. Вот какой результат вышел

Это Персик. Он теперь будет жить с нами.
Tue, 13 Jan 2026 10:52:24 +0300
Недавно ушёл мой кот, которому было 18 лет и 4 месяца. В позапрошлом (2024) году ушла кошка. Ей было 18 и 1. Посты про них я уже пилила, когда они были ещё живы, да и фотки по вторникам стабильно выкладывала. Они навсегда будут в моем сердце. Найдены они были ещё котятами и прожили долгую и счастливую котожизнь.
А вот у моего сына никогда не было котёнка. Ему 13,то есть коты были уже взрослыми когда он появился. И он начал просить котёнка. Ну и как говорится, без кота и жизнь не та. Очень хотела рыжего и назвать Василием, но Авито, как назло, не баловал объявлениями о раздаче рыжих котов.
Нашли единственного - этого. Ещё когда смотрели фотки понимала что это нифига не Василий. Скинула фотки крестной, она сразу говорит - это Персик. Сын одобрил. Когда ехали с ним домой, он сидел у сына за пазухой. И, наверное от стресса, пометил его. Выбрал себе главного раба. Так и есть, когда сын дома - не отходит от него.
Первый день носили его на лоток каждый час - все понял, на следующий день начал уверенно туда сам ходить. На кухне только тупит немного, приходит, начинает орать, а миску не видит, пока не ткнешь, но думаю, тоже скоро освоит. Цветы на подоконниках не жрёт - тоже плюс, а то скоро рассада) В общем наумнейший кот.
Добро к нам пожаловать!

Tue, 13 Jan 2026 10:52:24 +0300
Недавно ушёл мой кот, которому было 18 лет и 4 месяца. В позапрошлом (2024) году ушла кошка. Ей было 18 и 1. Посты про них я уже пилила, когда они были ещё живы, да и фотки по вторникам стабильно выкладывала. Они навсегда будут в моем сердце. Найдены они были ещё котятами и прожили долгую и счастливую котожизнь.
А вот у моего сына никогда не было котёнка. Ему 13,то есть коты были уже взрослыми когда он появился. И он начал просить котёнка. Ну и как говорится, без кота и жизнь не та. Очень хотела рыжего и назвать Василием, но Авито, как назло, не баловал объявлениями о раздаче рыжих котов.
Нашли единственного - этого. Ещё когда смотрели фотки понимала что это нифига не Василий. Скинула фотки крестной, она сразу говорит - это Персик. Сын одобрил. Когда ехали с ним домой, он сидел у сына за пазухой. И, наверное от стресса, пометил его. Выбрал себе главного раба. Так и есть, когда сын дома - не отходит от него.
Первый день носили его на лоток каждый час - все понял, на следующий день начал уверенно туда сам ходить. На кухне только тупит немного, приходит, начинает орать, а миску не видит, пока не ткнешь, но думаю, тоже скоро освоит. Цветы на подоконниках не жрёт - тоже плюс, а то скоро рассада) В общем наумнейший кот.
Добро к нам пожаловать!

Я сегодня несмотря на понедельник, на работу не пошел. Выходные продолжаются.
Mon, 12 Jan 2026 20:37:13 +0300
Купил я намедни скородочку. Сковородочка не простая, а с гранитным покрытием. Это вам не лось пукнул!
Сходил на колхозное поле, картошечки под снегом накопал из-под снега, лучку также.
Почистил её, порезал меленько да и на свородку - хрясь! И давай её жарить, родимую.
И пожарил.

Mon, 12 Jan 2026 20:37:13 +0300
Купил я намедни скородочку. Сковородочка не простая, а с гранитным покрытием. Это вам не лось пукнул!
Сходил на колхозное поле, картошечки под снегом накопал из-под снега, лучку также.
Почистил её, порезал меленько да и на свородку - хрясь! И давай её жарить, родимую.
И пожарил.

Звёздные войны IV: кто убил опекунов Люка Скайуокера?
Tue, 13 Jan 2026 01:47:58 +0300
Обзор состоит из нескольких частей, просьба не ломать, об окончании сообщу, спасибо.
Поклонники франшизы «Звёздные войны», должно быть, помнят, как в четвёртом (начальном, первом по счёту) эпизоде Люк Скайуокер возвращается на ферму, где жил со своими опекунами, и обнаруживает тех мёртвыми возле дымящегося дома. Поистине драматический момент.

Tue, 13 Jan 2026 01:47:58 +0300
Обзор состоит из нескольких частей, просьба не ломать, об окончании сообщу, спасибо.
Поклонники франшизы «Звёздные войны», должно быть, помнят, как в четвёртом (начальном, первом по счёту) эпизоде Люк Скайуокер возвращается на ферму, где жил со своими опекунами, и обнаруживает тех мёртвыми возле дымящегося дома. Поистине драматический момент.

Отвлекитесь на три минуты и погрузитесь в этот музыкальный шедевр
Tue, 13 Jan 2026 07:09:13 +0300
наполненный напряжением, чувствами и искренними эмоциями.
Tue, 13 Jan 2026 07:09:13 +0300
наполненный напряжением, чувствами и искренними эмоциями.
Рысь напала на девочку в детском лагере под Уфой
Mon, 12 Jan 2026 14:29:28 +0300
Зверь набросился на 12-летнюю школьницу, успев оцарапать и укусить. Сейчас ей делают уколы, она под присмотром врачей.
Предположительно, дикая кошка была заражена бешенством - позже животное отловили, но помочь ему не смогли — рысь умерла.
[next]
Mon, 12 Jan 2026 14:29:28 +0300
Зверь набросился на 12-летнюю школьницу, успев оцарапать и укусить. Сейчас ей делают уколы, она под присмотром врачей.
Предположительно, дикая кошка была заражена бешенством - позже животное отловили, но помочь ему не смогли — рысь умерла.
[next]
45! Злоебот идёт гулять!
Tue, 13 Jan 2026 00:13:06 +0300
Мои роднульки мне сделали подарок! Буду учиться по новой! 26 лет не брал эту штуку в руки!

Tue, 13 Jan 2026 00:13:06 +0300
Мои роднульки мне сделали подарок! Буду учиться по новой! 26 лет не брал эту штуку в руки!

WSJ: Трамп склоняется к военным ударам по Ирану
Tue, 13 Jan 2026 00:01:58 +0300
Президент США Дональд Трамп склоняется к санкционированию прямых военных ударов по Ирану, однако окончательное решение будет принято после экстренных консультаций с ближайшим окружением, которые пройдут во вторник.
Как сообщает газета Wall Street Journal со ссылкой на информированных чиновников в Вашингтоне, Белый дом рассматривает возможность атаки на ключевые объекты республики.
via
UPD:«Индекс пиццы» взлетел на 1000% на фоне возможной операции США в Иране. Прямо сейчас пиццерии у Пентагона работают с максимальной нагрузкой. Перед арестом Мадуро индекс вырос на 700%.

Tue, 13 Jan 2026 00:01:58 +0300
Президент США Дональд Трамп склоняется к санкционированию прямых военных ударов по Ирану, однако окончательное решение будет принято после экстренных консультаций с ближайшим окружением, которые пройдут во вторник.
Как сообщает газета Wall Street Journal со ссылкой на информированных чиновников в Вашингтоне, Белый дом рассматривает возможность атаки на ключевые объекты республики.
via
UPD:«Индекс пиццы» взлетел на 1000% на фоне возможной операции США в Иране. Прямо сейчас пиццерии у Пентагона работают с максимальной нагрузкой. Перед арестом Мадуро индекс вырос на 700%.

Как я в бизнес-классе летал
Sat, 10 Jan 2026 21:27:48 +0300
Совершая очередную посадку в самолет и проходя через места бизнес-класса, мне всегда было интересно, а стоит ли своих денег это кресло? Что в нём такого, что люди платят за него не малые деньги? И я решил проверить в свой 22-ой перелет за 2025 год.
Будет всего 11 фотографий и 1 видео.
Мой самолет

Sat, 10 Jan 2026 21:27:48 +0300
Совершая очередную посадку в самолет и проходя через места бизнес-класса, мне всегда было интересно, а стоит ли своих денег это кресло? Что в нём такого, что люди платят за него не малые деньги? И я решил проверить в свой 22-ой перелет за 2025 год.
Будет всего 11 фотографий и 1 видео.
Мой самолет

Нам врут. Все
Fri, 09 Jan 2026 18:22:19 +0300
"ИИ вас обманывает. Почему ChatGPT и другие нейросети уверенно врут и как распознать неправду.
Они не лгут вам намеренно. Они просто не знают, что такое правда. Разбираем природу галлюцинаций ИИ и учимся задавать вопросы, которые не приведут к катастрофе.
Вы задаёте вопрос нейросети, и она выдаёт вам идеальный ответ. Уверенный, развёрнутый, с фактами, цифрами и даже ссылками. Вы благодарно копируете его в свой отчёт, статью или код. А через час выясняется, что половина фактов — вымысел, ссылки ведут в никуда, а код не работает. Это не единичный баг. Это фундаментальная особенность современных языковых моделей, таких как ChatGPT, DeepSeek, Gemini и им подобных. Они не «ошибаются» в человеческом смысле. Они галлюцинируют. Термин, пришедший из психиатрии, идеально описывает суть: модель с убеждённостью сумасшедшего генерирует информацию, которой не существует в реальности. Сегодня мы не будем запугивать вас апокалипсисом. Мы разберёмся на пальцах, как устроена эта «честная ложь», почему создатели не могут её просто «починить», и, самое главное, как вам — обычному пользователю — не попасть впросак и не совершить фатальную ошибку, доверившись электронному оракулу. Потому что проблема не в том, что ИИ врёт. Проблема в том, что мы начинаем верить ему, как живому эксперту.
Для начала забудьте представление об ИИ как о всезнающей базе данных или поисковике. Современная большая языковая модель (LLM) — это не библиотека, а безумно талантливый имитатор. Её обучили на триллионах слов из интернета, книг, статей. Она не «помнит» факты. Она изучила статистические закономерности в текстах. Её основная и единственная задача — предугадать следующее слово (токен) в последовательности с максимальной вероятностью. Когда вы спрашиваете «Сколько будет 2+2?», модель не вычисляет. Она смотрит на миллиарды примеров в своих данных, где после «2+2=» с чудовищной частотой следует «4», и выдаёт вам «4». Когда вы спрашиваете «Кто открыл Америку?», она не лезет в энциклопедию. Она воспроизводит наиболее правдоподобную, часто встречающуюся в её данных цепочку слов: «Америку открыл Христофор Колумб в 1492 году». Она делает это блестяще, и в 80% случаев для простых, проверенных фактов это работает. Но вот в чём загвоздка: правдоподобие — не то же самое, что правда.
Почему же возникают галлюцинации? Причин несколько, и они вшиты в саму архитектуру.
Проклятие правдоподобия. Модель оптимизирована для создания гладкого, связного, убедительного текста. Если в её данных нет точного ответа на ваш специфический вопрос, она не скажет «не знаю». Она сочинит максимально правдоподобный с её точки зрения ответ. Это как если бы вы попросили профессионального актёра, который читал тысячи пьес, сымпровизировать монолог от имени вымышленного средневекового рыцаря. Он сделает это блестяще и убедительно, но исторической правды в его словах не будет ни грамма.
Контаминация данных. Модель училась на всём интернете. А в интернете, помимо Википедии и научных журналов, есть форумы конспирологов, плохо вычитанные блоги, художественные произведения и откровенный фейковый контент. Модель впитывает всё, не различая истину и ложь. Она может с одинаковой уверенностью рассказать вам и про теорию относительности, и про то, что Земля плоская, если в её данных оба нарратива были представлены достаточно широко.
Проблема с «незнанием». У модели нет внутренней метки «я этого не знаю». Её не учили осознавать границы своих знаний. Её учили заполнять пробелы. Поэтому на вопрос «Какие были последние слова Наполеона Бонапарта?» она не промолчит. Она сгенерирует одну из версий, которая встречается в исторических спекуляциях, и представит её как факт.
К чему это может привести? Последствия варьируются от смешных до опасных.
Комичные: ИИ может написать рецензию на несуществующую книгу, привести цитату вымышленного философа или придумать детали биографии несуществующего учёного (как в нашем примере).
Разрушительные для репутации: Студент, доверившийся ИИ в написании курсовой, получит «высосанные из пальца» источники и будет отчислен за плагиат и фальсификацию. Копирайтер вставит в статью непроверенные «факты» и подорвёт доверие к бренду.
Опасные для здоровья и жизни: Это самый серьёзный риск. Запрос «Напиши диету для диабетика» или «Какая доза препарата Х безопасна?» может породить смертельно опасные рекомендации. ИИ не имеет медицинских знаний, он имеет статистику по текстам о медицине, включая советы с форумов от знахарей.
Юридические и финансовые: Попытка получить у ИИ консультацию по налоговому кодексу или составлению договора может обернуться ссылками на несуществующие статьи закона или фатальными ошибками в формулировках, ведущими к судебным искам.
Так что же делать? Как не попасть в ловушку? Вам нужна не паранойя, а методология скептика. Рассматривайте ИИ не как оракула, а как сверхбыстрого, но склонного к выдумкам стажёра .Ваша задача — быть его строгим, вдумчивым руководителем.
Правило 1: Верифицируйте всё, что имеет последствия. Любой факт, дата, имя, цифра, ссылка, выданная ИИ, — гипотеза, а не истина. Открывайте вторую вкладку браузера. Ищите подтверждение в авторитетных источниках: официальных сайтах, научных базах данных, проверенных энциклопедиях. Если ИИ дал ссылку — кликайте. 9 из 10 — битые или ведут не туда.
Правило 2: Задавайте «контрольные вопросы» и проверяйте на противоречия. Не спрашивайте один раз. Спросите ту же тему под другим углом. «Расскажи о творчестве писателя Х» → а потом «Назови пять основных произведений писателя Х, в хронологическом порядке». Сравните ответы. Если ИИ «галлюцинирует», в разных ответах будут всплывать разные названия и даты, которые он сам же себе противоречат.
Правило 3: Требуйте контекст и источники (но не верьте им слепо). Современные модели умеют «рассуждать». Попросите: «Объясни, как ты пришёл к этому выводу? На каких данных основан твой ответ?». Хорошая модель иногда может раскрыть ход мыслей. Но помните: она и ссылки на источники может придумать с той же лёгкостью.
Правило 4: Используйте ИИ по назначению. Его сила — структурирование, черновик, идеи, редактирование.
Правило 5 (техническое для разработчиков): Используйте RAG. Это передовой метод борьбы с галлюцинациями в корпоративных решениях. RAG (Retrieval-Augmented Generation) — это когда ответ ИИ не просто генерируется из общих знаний модели, а предварительно подкрепляется поиском по вашей собственной, проверенной базе знаний (документации, базам данных, архивам). Сначала система ищет релевантные документы, а потом даёт их ИИ со строгой инструкцией: «Отвечай, опираясь ТОЛЬКО на эти документы». Это резко снижает уровень вымысла.
Итог. Языковые модели — это не искусственный интеллект в смысле человеческого разума. Это искусственная интуиция, доведённая до абсолюта. Они угадывают, а не знают. Их обман — не злой умысел, а побочный эффект их архитектуры, созданной для убедительности, а не для истины. Ваша защита — критическое мышление и труд. ИИ — это мощнейший умножитель вашей продуктивности, но не замена вашему образованию, экспертизе и здравому смыслу. Доверяйте ему ровно настолько, насколько вы доверяете очень начитанному, но чудаковатому незнакомцу, который может в любой момент, искренне веря в свою правоту, начать рассказывать вам, как он вчера летал на Марс. Ваша задача — вежливо выслушать, а потом проверить каждый его тезис у первоисточника. Только так симбиоз человека и машины будет безопасным и плодотворным."
Fri, 09 Jan 2026 18:22:19 +0300
"ИИ вас обманывает. Почему ChatGPT и другие нейросети уверенно врут и как распознать неправду.
Они не лгут вам намеренно. Они просто не знают, что такое правда. Разбираем природу галлюцинаций ИИ и учимся задавать вопросы, которые не приведут к катастрофе.
Вы задаёте вопрос нейросети, и она выдаёт вам идеальный ответ. Уверенный, развёрнутый, с фактами, цифрами и даже ссылками. Вы благодарно копируете его в свой отчёт, статью или код. А через час выясняется, что половина фактов — вымысел, ссылки ведут в никуда, а код не работает. Это не единичный баг. Это фундаментальная особенность современных языковых моделей, таких как ChatGPT, DeepSeek, Gemini и им подобных. Они не «ошибаются» в человеческом смысле. Они галлюцинируют. Термин, пришедший из психиатрии, идеально описывает суть: модель с убеждённостью сумасшедшего генерирует информацию, которой не существует в реальности. Сегодня мы не будем запугивать вас апокалипсисом. Мы разберёмся на пальцах, как устроена эта «честная ложь», почему создатели не могут её просто «починить», и, самое главное, как вам — обычному пользователю — не попасть впросак и не совершить фатальную ошибку, доверившись электронному оракулу. Потому что проблема не в том, что ИИ врёт. Проблема в том, что мы начинаем верить ему, как живому эксперту.
Для начала забудьте представление об ИИ как о всезнающей базе данных или поисковике. Современная большая языковая модель (LLM) — это не библиотека, а безумно талантливый имитатор. Её обучили на триллионах слов из интернета, книг, статей. Она не «помнит» факты. Она изучила статистические закономерности в текстах. Её основная и единственная задача — предугадать следующее слово (токен) в последовательности с максимальной вероятностью. Когда вы спрашиваете «Сколько будет 2+2?», модель не вычисляет. Она смотрит на миллиарды примеров в своих данных, где после «2+2=» с чудовищной частотой следует «4», и выдаёт вам «4». Когда вы спрашиваете «Кто открыл Америку?», она не лезет в энциклопедию. Она воспроизводит наиболее правдоподобную, часто встречающуюся в её данных цепочку слов: «Америку открыл Христофор Колумб в 1492 году». Она делает это блестяще, и в 80% случаев для простых, проверенных фактов это работает. Но вот в чём загвоздка: правдоподобие — не то же самое, что правда.
Почему же возникают галлюцинации? Причин несколько, и они вшиты в саму архитектуру.
Проклятие правдоподобия. Модель оптимизирована для создания гладкого, связного, убедительного текста. Если в её данных нет точного ответа на ваш специфический вопрос, она не скажет «не знаю». Она сочинит максимально правдоподобный с её точки зрения ответ. Это как если бы вы попросили профессионального актёра, который читал тысячи пьес, сымпровизировать монолог от имени вымышленного средневекового рыцаря. Он сделает это блестяще и убедительно, но исторической правды в его словах не будет ни грамма.
Контаминация данных. Модель училась на всём интернете. А в интернете, помимо Википедии и научных журналов, есть форумы конспирологов, плохо вычитанные блоги, художественные произведения и откровенный фейковый контент. Модель впитывает всё, не различая истину и ложь. Она может с одинаковой уверенностью рассказать вам и про теорию относительности, и про то, что Земля плоская, если в её данных оба нарратива были представлены достаточно широко.
Проблема с «незнанием». У модели нет внутренней метки «я этого не знаю». Её не учили осознавать границы своих знаний. Её учили заполнять пробелы. Поэтому на вопрос «Какие были последние слова Наполеона Бонапарта?» она не промолчит. Она сгенерирует одну из версий, которая встречается в исторических спекуляциях, и представит её как факт.
К чему это может привести? Последствия варьируются от смешных до опасных.
Комичные: ИИ может написать рецензию на несуществующую книгу, привести цитату вымышленного философа или придумать детали биографии несуществующего учёного (как в нашем примере).
Разрушительные для репутации: Студент, доверившийся ИИ в написании курсовой, получит «высосанные из пальца» источники и будет отчислен за плагиат и фальсификацию. Копирайтер вставит в статью непроверенные «факты» и подорвёт доверие к бренду.
Опасные для здоровья и жизни: Это самый серьёзный риск. Запрос «Напиши диету для диабетика» или «Какая доза препарата Х безопасна?» может породить смертельно опасные рекомендации. ИИ не имеет медицинских знаний, он имеет статистику по текстам о медицине, включая советы с форумов от знахарей.
Юридические и финансовые: Попытка получить у ИИ консультацию по налоговому кодексу или составлению договора может обернуться ссылками на несуществующие статьи закона или фатальными ошибками в формулировках, ведущими к судебным искам.
Так что же делать? Как не попасть в ловушку? Вам нужна не паранойя, а методология скептика. Рассматривайте ИИ не как оракула, а как сверхбыстрого, но склонного к выдумкам стажёра .Ваша задача — быть его строгим, вдумчивым руководителем.
Правило 1: Верифицируйте всё, что имеет последствия. Любой факт, дата, имя, цифра, ссылка, выданная ИИ, — гипотеза, а не истина. Открывайте вторую вкладку браузера. Ищите подтверждение в авторитетных источниках: официальных сайтах, научных базах данных, проверенных энциклопедиях. Если ИИ дал ссылку — кликайте. 9 из 10 — битые или ведут не туда.
Правило 2: Задавайте «контрольные вопросы» и проверяйте на противоречия. Не спрашивайте один раз. Спросите ту же тему под другим углом. «Расскажи о творчестве писателя Х» → а потом «Назови пять основных произведений писателя Х, в хронологическом порядке». Сравните ответы. Если ИИ «галлюцинирует», в разных ответах будут всплывать разные названия и даты, которые он сам же себе противоречат.
Правило 3: Требуйте контекст и источники (но не верьте им слепо). Современные модели умеют «рассуждать». Попросите: «Объясни, как ты пришёл к этому выводу? На каких данных основан твой ответ?». Хорошая модель иногда может раскрыть ход мыслей. Но помните: она и ссылки на источники может придумать с той же лёгкостью.
Правило 4: Используйте ИИ по назначению. Его сила — структурирование, черновик, идеи, редактирование.
Правило 5 (техническое для разработчиков): Используйте RAG. Это передовой метод борьбы с галлюцинациями в корпоративных решениях. RAG (Retrieval-Augmented Generation) — это когда ответ ИИ не просто генерируется из общих знаний модели, а предварительно подкрепляется поиском по вашей собственной, проверенной базе знаний (документации, базам данных, архивам). Сначала система ищет релевантные документы, а потом даёт их ИИ со строгой инструкцией: «Отвечай, опираясь ТОЛЬКО на эти документы». Это резко снижает уровень вымысла.
Итог. Языковые модели — это не искусственный интеллект в смысле человеческого разума. Это искусственная интуиция, доведённая до абсолюта. Они угадывают, а не знают. Их обман — не злой умысел, а побочный эффект их архитектуры, созданной для убедительности, а не для истины. Ваша защита — критическое мышление и труд. ИИ — это мощнейший умножитель вашей продуктивности, но не замена вашему образованию, экспертизе и здравому смыслу. Доверяйте ему ровно настолько, насколько вы доверяете очень начитанному, но чудаковатому незнакомцу, который может в любой момент, искренне веря в свою правоту, начать рассказывать вам, как он вчера летал на Марс. Ваша задача — вежливо выслушать, а потом проверить каждый его тезис у первоисточника. Только так симбиоз человека и машины будет безопасным и плодотворным."
11 января 1997 года в Санкт-Петербурге была основана группа «ПилОт»
Sun, 11 Jan 2026 09:43:02 +0300
Поздравляем музыкантов и поклонников коллектива!

Sun, 11 Jan 2026 09:43:02 +0300
Поздравляем музыкантов и поклонников коллектива!

Кто-то вставил хотя бы раз!?
Sat, 10 Jan 2026 23:47:27 +0300
Пока космические корабли юнайтед стейт офф америга баражжируют танкеры и долиносы не расквартировались, мой мозг атаковал некуевый такой вопрос: нахера в мультиметры пихают панельки проверки транзисторов, которые уже лет 20 не используют в производстве и как туда запихать кт315!?
У кого получилось, налейте опыта!
Всем по 0.5 и приятного завершения выходных.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
Sat, 10 Jan 2026 23:47:27 +0300
Пока космические корабли юнайтед стейт офф америга баражжируют танкеры и долиносы не расквартировались, мой мозг атаковал некуевый такой вопрос: нахера в мультиметры пихают панельки проверки транзисторов, которые уже лет 20 не используют в производстве и как туда запихать кт315!?
У кого получилось, налейте опыта!
Всем по 0.5 и приятного завершения выходных.




