What is Hackers' Pub?

Hackers' Pub is a place for software engineers to share their knowledge and experience with each other. It's also an ActivityPub-enabled social network, so you can follow your favorite hackers in the fediverse and get their latest posts in your feed.

For example, reading a dump of plain text is 4x faster compared to iTerm stdio에 의존하는 unix philosophy 를 좋아하긴 하지만, 그걸 그 속도로 바로 stdout에 빼서 보는건 필요가 없지않나... ? 왜 다들 이쪽으로 경쟁을 하지? 동체시력경쟁은 아닐거 아냐?

1
0
1
1
0
0
0

친구가 외국 반도체회사에 다니는데 이름만 들으면 다 아는 세계에서 손꼽히는 회사다. 1년 전쯤에, 친구가 자기 팀에서 예전부터 쓰고있는 시뮬레이션 코드가 너무 복잡해서 리팩토링 하고 싶다고 나를 찾아왔다. 한 2, 3000줄 되는 Numpy 코드였다.

나는 시뮬레이션의 의미 자체는 전혀 이해를 못하니(이래서 보안문제도 익스큐즈 할수 있었을 것이다), 그냥 코드의 모양만 보고 이상한 부분을 조금씩 고쳐나갔다. 그... 전형적인 물리학자들의 실험실 코드였다(코드를 못짜는건 이해를 하는데, 거기에 대해 한치의 부끄러움도 느끼지 않는다는 점이 뒷목을 잡게 만든다). Numpy 함수도 제대로 활용을 못해놨길래, 나도 Numpy 잘 못쓰지만 대충 이런 함수가 아마 있겠지... 하고 검색해서 찾아내서 교체하고 이런걸 반복했다.

이것저것 고친 다음에 잘돌아가나 한번 실행을 해봤는데, 이럴수가. 시뮬레이션이 1000배 빨라졌다. 아니 뭐, 한 2배 3배 빨라졌으면 내 솜씨라고 자부할텐데, 1000배 빨라진거는 그냥 원래 코드가 똥통이었다고 해석할수 밖에 없다. 구라안치고 정말 1000배다. 1000배의 성능향상의 보답으로 나는 교촌치킨웨지콤보세트를 현장에서 받아먹었다.

그 이후에 어떤 일이 있었냐. 기존 시뮬레이션 코드로는 하루에 시뮬레이션을 2, 3번정도밖에 돌리지 못했는데, 1000배 빨라지고 나니까 결과가 수십초만에 나오니 하루에 수백번 돌릴수 있게 된것이다(내가 고친 코드가 전부는 아니어서 1000배 향상은 아닌데, 가장 큰 병목이긴 해서 결국 100배 이상이라는 듯). 그때부터 100배 많아진 데이터를 처리하기 위한 인프라가 필요해졌다. 그래서 거기 개발팀이 데이터베이스와 데이터 파이프라인 구축을 시작하게 되었다고 한다. 그 팀에서는 일종의 특이점이 시작된것이다;;

결론: 교촌치킨웨지콤보 세트는 개맛있었다.

28
2
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0

The `alclessctl` CLI for my "Alcoholless Homebrew" (sandboxed homebrew) is now even more similar to the `limactl` CLI.
github.com/AkihiroSuda/alcless

It does NOT use vz under the hood though, due to the difficulty in automating the OOBE setup of macOS guests.

0
0
0
0
0
1
0
0
0
0
0
0
0
0
0

Vibe 코딩은 저품질 작업에 대한 변명이 될 수 없어요
------------------------------
- *AI 기반 바이브 코딩* 은 혁신적이지만, *품질 없는 속도는 위험* 하다는 경고의 글

"더 빨리 움직이고, 더 많이 망가뜨려라"
"vibe coding, 두 명의 엔지니어가 50명의 기술 부채를 만들어낼 수 있는 방식"
- 이 실리콘밸리의 오래된 슬로건을 비튼 표현은 최근 엔지니어링 커뮤니티에서 “vibe coding…
------------------------------
https://news.hada.io/topic?id=20449&utm_source=googlechat&utm_medium=bot&utm_campaign=1834

0
0
0
0
0
0
0
0
0
0
0

OpenAI의 최신 추론 AI 모델은 더 환각을 많이 일으킴
------------------------------
- 최신 모델 *o3와 o4-mini* 는 다양한 작업에서 뛰어난 성능을 보이지만, 이전 모델보다 *더 많은 환각 현상* 을 보임
- *환각 문제* 는 AI 발전에서 해결이 어려운 핵심 문제 중 하나이며, *모델 크기가 커질수록 심화되는 경향* 을 가짐
- OpenAI의 자체 테스트에서 **o3와 o4-mini는 더 많은 부정확한 주장*…
------------------------------
https://news.hada.io/topic?id=20451&utm_source=googlechat&utm_medium=bot&utm_campaign=1834

0
0
0
0