mastodon.world is one of the many independent Mastodon servers you can use to participate in the fediverse.
Generic Mastodon server for anyone to use.

Server stats:

9K
active users

#json

13 posts11 participants2 posts today

Интеграция без границ: секреты успешного сквозного тестирования в «1С»

Привет! Меня зовут Ольга и я QA-специалист SimbirSoft. На данный момент моя специализация сопрягается с тестированием платформы «1С». Идея статьи появилась, когда ко мне обратился коллега с вопросом: что такое интеграционное тестирование «1С». Готовясь ко встрече с ним, я поняла, что это очень важный этап в работе с программой для QA-специалиста. Статья поможет на этапе изучения интеграционного тестирования платформы понять, что нужно учесть при планировании тестирования, подсветить возможные узкие места и предотвратить появление критичных багов. Расширить знания QA-специалиста в платформе «1С» в целом и возможности ее интеграции в частности. Также статья будет полезна для SDET специалистов, тимлидов или PO проектов, где присутствует эта платформа.

habr.com/ru/companies/simbirso

ХабрИнтеграция без границ: секреты успешного сквозного тестирования в «1С»Привет! Меня зовут Ольга и я QA-специалист SimbirSoft. На данный момент моя специализация сопрягается с тестированием платформы «1С». Идея статьи появилась, когда ко мне обратился коллега с вопросом:...

Первый http сервер на С++, заметки для новичков

Решил написать простенькую статейку по следам реализации небольшой программки на С++ под Виндоус, которая содержит в себе TCP сервер. Мы получаем от клиента http запрос. Соединение не защищенное. На чем реализован клиент нам неизвестно: может на php (curl,socket,stream_contex_create,...), может на js (ajax), вообще может быть на чем угодно. Надо задача реализовать http парсинг запроса и контента, выполнить задание (на каком-то подключенном к серверу оборудовании) и ответить клиенту о результате. Примечание: автор реализует http сервер на устаревшем Qt4, используем QTcpServer. Но для http сервера это не принципиально.

habr.com/ru/articles/910222/

ХабрПервый http сервер на С++, заметки для новичковРешил написать простенькую статейку по следам реализации небольшой программки на С++ под Виндоус, которая содержит в себе TCP сервер. Мы получаем от клиента http запрос (соединение не защищенное). На...

👨‍💻 JSON Crack - розширення #VSCode, яке дозволяє перетворювати складні набори даних #JSON на інформативні та візуально привабливі графіки.

Підтримуються також формати YAML і XML. Створені діаграми можна завантажити як зображення. Крім того, інструмент доступний у браузері.

marketplace.visualstudio.com/i

I am defining a #SQLAlchemy ORM and wish to use #JSON as column type. I can use the generic JSON type or the MS SQL Server-specific JSON type.
Whether I use the generic or the specific column type, values seem limited to 1000 characters (ODBC complains that larger contents would be truncated).
I try `mapped_column(JSON(4000))` in ORM definitions, but that does not seem to make any difference in practice.

What is the actual field width of this column type? Can I somehow change it (larger)?

Аккуратно даем LLM контекст проекта

Привет, на связи Лука. Знаете, есть такая поговорка: "тише едешь – дальше будешь". Работая с LLM, я пришёл к выводу, что аккуратность и точность в подаче контекста – это один из самых важных ключиков к хорошему результату. Иначе получится как в другой поговорке - про дурака и стеклянный орган. Чего греха таить – все мы пользуемся LLM в различных ситуациях. От генерации бойлерплейта до неожиданного, но изящного решения сложной логики. Ничего такого – очередной инструмент, которым можно, как молотком, забить гвоздь, а можно и... ну, вы поняли. Но когда речь заходит о системе, в которой контекст содержится не в одном, не в двух, и даже не в десятке файлов – вопрос становится ребром. Просто скормить модели весь проект? Ну, можно, конечно. Модель, захлебнувшись в потоке зачастую ненужной информации, вряд ли выдаст что-то вменяемое. Она потратит драгоценные вычислительные ресурсы на анализ совершенно нерелевантных частей. Неэкологичненько.

habr.com/ru/articles/909278/

ХабрАккуратно даем LLM контекст проектаПривет, на связи Лука. Знаете, есть такая поговорка: "тише едешь – дальше будешь". Работая с LLM, я пришёл к выводу, что аккуратность и точность в подаче контекста – это один из самых важных ключиков...
#json#llm#go