בנה כלי ניטור Reddit עם Claude Code
בנה כלי ניטור Reddit עם Claude Code
מה תבנה
כלי מעקב Reddit שסורק סאברדיטים לחיפוש הודעות שכדאי לך להגיב עליהן, מנסח תגובות בקול שלך, עוקב אחרי טרנדים חדשים, וקולע לך דיווח יומי בדוא"ל.
הבעיה
אתה יודע שיש אנשים ב-Reddit עכשיו שמבקשים עזרה בדיוק למה שהמוצר שלך עושה. אבל למצוא את הפוסטים האלה זה אומר לגלול שלוש תת-קהילות כל בוקר, להעריך עשרות פוסטים, לכתוב תגובות שלא נשמעות כמו מודעות — ולעשות את זה בעקביות. אתה מדלג יום. אחר כך שבוע שלם. מישהו אחר עונה לפוסטים האלה. הלידים היו שם. פשוט לא היה לך מערכת.
מה אתה בונה
כלי ניטור תחום מלא שמשגר את תת-הקהילות שלך דרך RSS (אתה לא צריך מפתח API של Reddit), נותן ניקוד לכל פוסט על עדכוניות עבור העסק שלך, מצייר תגובות שמתאימות לסגנון הכתיבה שלך, ושולח לך דוא"ל בקר עם ההזדמנויות הטובות ביותר. אתה תבנה את הצד האחורי של היישום, את הניקוד של ה-AI, את מערכת טיוטת התגובות, לוח בקרה לניהול הכל, וקיבוץ דוא"ל יומי.
שלב 1: תיאור הפרויקט + מבנה תיקיות
בניות מורכבות יוצאות משליטה כשל-Claude מאבדת הקשר באמצע. ההפתרון: קבצי תכנון שפועלים כמקור אמת עמיד. Claude קוראת אותם בכל שלב, אז גם כשיומן השיחה מתעדכן, התכנון נשאר ברור.
Prompt:
Create a new project called reddit-monitor. I want to build a Reddit monitoring tool with these features: 1) Monitor specific subreddits via RSS feeds for relevant posts. 2) A knowledge base where I store URLs and keywords that define what's relevant to my business. 3) AI scoring that classifies each post as an opportunity (relevant to respond to) or not. 4) AI-drafted responses matching my tone profile. 5) A trend tracker that spots rising terms across subreddits. 6) A daily email digest with top opportunities. Set up the project with a PRD file describing the full app, a plans/ folder with separate markdown files for each major feature (backend, knowledge base, scoring, drafting, frontend dashboard, email digest), and a CLAUDE.md with project rules. Use Python/FastAPI for the backend with SQLite, and Next.js for the frontend.
מה Claude Code עושה: Claude יוצרת את כל שלד הפרויקט — PRD, קבצי תכנון לכל תכונה, ו-CLAUDE.md. קבצי התכנון הם דפוס המפתח כאן. בכל פעם ש-Claude מתחילה משימה חדשה, היא קוראת את הקבצים האלה כדי להישאר מיושרת. זה מה שמבדיל בין בנייה נקייה של קבצים מרובים לאחת שסוחפת לתוך כאוס. הסרטון שהשראה את ההדרכה הזו השתמש ב-14 קבצי תכנון כדי להחזיק שלושה סוכנים באותו דף.
כדי לנסות: פתח את תיקיית plans/. אתה צריך לראות 5-6 קבצי markdown — אחד לכל תכונה. קרא את ה-PRD. האם זה מתאר את היישום שאתה רוצה לבנות? ערוך כל דבר שלא בסדר. הקבצים האלה מניעים את כל הבנייה.
שלב 2: מהדר RSS של Reddit
ל-Reddit יש ערוצי RSS ציבוריים לכל תת-קהילה. אין מפתח API, אין OAuth, אין כאבי ראש של הגבלות קצב. פשוט הוסף .rss לכל כתובת URL של תת-קהילה ותקבל את הפוסטים האחרונים.
Prompt:
Read the plans/ files. Build the Reddit RSS fetcher. It should: 1) Take a list of subreddit names from a SQLite database. 2) Fetch the RSS feed for each one (https://www.reddit.com/r/{subreddit}/new.rss). 3) Parse each post — title, body text, author, URL, timestamp, subreddit. 4) Store everything in SQLite, deduplicating by post URL. 5) Add a FastAPI endpoint POST /api/scout that triggers a fetch, and GET /api/posts that returns stored posts. 6) Limit to the 25 most recent posts per subreddit to keep API costs down. Add a script to seed 2-3 default subreddits and a test script that runs a scout and prints the results.
מה Claude Code עושה: Claude בונה את מחליל ה-RSS, מודלי בסיס הנתונים, ונקודות קצה של API. ערוצי RSS כמקור נתונים פירושו אפס הגדרה — ללא מפתחות API, ללא תהליך אישור, ללא הגבלות קצב לניהול. הגבול של 25 פוסטים הוא בכוונה: כאשר ה-AI נותן ניקוד לכל פוסט אחר כך, פחות פוסטים פירושו עלויות API נמוכות יותר. סקריפט הבדיקה נותן לך משהו לאימות מיידי ללא צורך בלקוח REST.
כדי לנסות: הפעל את הצד האחורי של היישום (python -m uvicorn main:app --reload או מה שקבע Claude). הפעל את סקריפט הבדיקה ש-Claude יצרה — אתה צריך לראות פוסטי Reddit אמיתיים מודפסים עם כותרות, גופים וכתובות URL. לחלופין, השתמש ב-curl: curl -X POST http://localhost:8000/api/scout ואז curl http://localhost:8000/api/posts. לחץ על כתובת URL — היא צריכה להוביל לשרשור Reddit אמיתי.
שלב 3: בסיס ידע + ניקוד הזדמנויות
פוסטים גולמיים אינם שימושיים. אתה צריך לדעת איזה מהם שווה להשיב להם. בסיס הידע מגדיר מה רלוונטי — הכתובות URL שלך, המילות המפתח שלך — וה-AI scorer מסווג כל פוסט מול זה.
Prompt:
Read the plans/ files. Build the knowledge base and opportunity scoring system. 1) Knowledge base: CRUD endpoints for "assets" — each asset has a URL, a description, and a list of keywords. Store in SQLite. 2) Scoring: After fetching posts, run each post through OpenAI (gpt-4o-mini to keep costs low). Send the post title + body + list of all keywords from the knowledge base. Ask the model to classify as "opportunity" or "skip", assign a confidence score 0-100, and flag whether the response should be promotional (includes a link to one of our assets) or non-promotional (pure value). 3) Store the score and classification with each post. 4) Add a promotional ratio setting (default 20%) — this percentage of opportunities should be promotional. Use my OPENAI_API_KEY from the environment.
מה Claude Code עושה: Claude בונה את CRUD של בסיס הידע וקו צינור ניקוד ה-AI. יחס הקידום הוא הפרט הקריטי. Reddit שונא ספאם. הגדר את זה גבוה מדי ותקבל downvoted לתהום. היחס של 20% כברירת מחדל אומר 4 מתוך 5 תגובות הן ערך טהור — אתה עוזר, לא מוכר. החמישית באופן טבעי כוללת קישור. כך בעצם מנהלים משווקים מנוסים ב-Reddit.
כדי לנסות: הוסף נכס בסיס ידע דרך API (או השתמש בסקריפט ה-seed). הפעל scout. ואז בדוק את GET /api/posts — כל פוסט צריך להיות בעל סיווג (הזדמנות/דלג), ציון ביטחון, ודגל קידום. מיין לפי ביטחון. התוצאות העליונות צריכות באמת להיות פוסטים שווים להשיב להם.
שלב 4: מטיוטת תגובה עם פרופיל טון
ה-scorer מצא את ההזדמנויות. עכשיו בואו נצייר תגובות שנשמעות כמו אתה, לא כמו ChatGPT.
Prompt:
Read the plans/ files. Build the response drafter. 1) Add a "tone profile" to the database — a text field where I describe my writing style plus 3-5 examples of Reddit comments I've actually written. Seed it with a default Reddit-friendly tone (casual, helpful, no corporate speak). 2) When a post is classified as an opportunity, generate one draft response using OpenAI. Include the tone profile in the system prompt. If the post is flagged as promotional, naturally weave in a link to the most relevant knowledge base asset. If non-promotional, just provide genuine value. 3) Add a POST /api/posts/{id}/regenerate endpoint that generates a new draft for a specific post. 4) Store drafts in the database linked to the post.
מה Claude Code עושה: Claude בונה את מטיוטת ה-API עם מערכת פרופיל טון. זה ההבדל בין תגובות AI שמקבלות upvote לאלה שמקבלות קריאה של ספאם בוט. פרופיל הטון לא רק אומר "להיות אגבי" — הוא כולל דוגמאות כתיבה אמיתיות שלך כדי שהמודל יחקה את הקול הספציפי שלך. endpoint ה-regenerate פירושו שאתה יכול להמשיך בהכאה עד שהטיוטה תרגיש נכונה, ללא הפעלה מחדש של כל ה-scout.
כדי לנסות: הפעל scout. בדוק הזדמנות — היא צריכה לקבל טיוטת תגובה. קרא אותה. האם זה נשמע כמו משהו שהיית מפרסם ב-Reddit? עדכן את פרופיל הטון עם 3 תגובות Reddit אמיתיות שכתבת, צור מחדש, והשווה. ההבדל צריך להיות ניכר.
שלב 5: ממשק לוח הבקרה
הצד האחורי של היישום פועל. עכשיו בואו נעשה את זה בר שימוש ללא פקודות curl.
Prompt:
Read the plans/ files. Build a Next.js dashboard for the Reddit monitoring tool. Pages needed: 1) Dashboard home — shows latest scout results: number of opportunities found, list of opportunity posts with confidence scores, click to expand and see/edit the draft response, and a "Run Scout" button. 2) Knowledge base page — add/edit/delete assets (URL, description, keywords). 3) Settings — manage monitored subreddits, promotional ratio slider, tone profile editor with a textarea for style description and writing examples. 4) Trends page — sorted list of terms with rising mentions across monitored subreddits, showing mention count and percentage increase. Keep the design clean and minimal — dark mode, no unnecessary decoration. Connect everything to the FastAPI backend.
מה Claude Code עושה: Claude בונה את כל הממשק הקדמי — ארבע עמודים, שילוב API, הכל. כאן Claude Code זוהר בבניות תחום מלא. Prompt אחד מייצר לוח בקרה פעולה כי הוא קורא את קוד הצד האחורי שהוא כבר בנה וקובע קריאות API תואמות. עמודת ה-Trends משלבת נתוני פוסט כדי להצליח מונחים שגדלים בתנופה — היא הופכת שימושית יותר כשאתה צובר נתונים על פני scouts מרובים.
כדי לנסות: הפעל את הממשק הקדמי (npm run dev). פתח את http://localhost:3000. אתה צריך לראות את לוח הבקרה עם תוצאות ה-scout שלך. לחץ על הזדמנות כדי לראות את הטיוטה. עבור להגדרות והוסף תת-קהילה. עבור לבסיס ידע והוסף נכס. לחץ על "Run Scout" וצפה בתוצאות חדשות שמופיעות.
שלב 6: קיבוץ דוא"ל יומי + פריסה
הקילומטר האחרון: תן לזה להפעיל ללא אתה.
Prompt:
Read the plans/ files. Add two final features: 1) Daily email digest — add a scheduled task that runs a scout every morning and sends an email summary to a configured address. Include: number of new opportunities, top 5 by confidence score (with draft responses), and any trending terms. Use Python's smtplib with Gmail SMTP (or any SMTP provider — store credentials in environment variables). Add the recipient email and schedule to the settings page. 2) Create a simple deploy script — a docker-compose.yml that runs both the FastAPI backend and Next.js frontend, plus a cron job for the daily scout. Also create a local start script (start.sh) that launches both servers for local development.
מה Claude Code עושה: Claude מוסיף את לולאת ההתאמה היומית — כל הטעם של הבנייה הזו. כל בוקר ה-scout מופעל, מקצה ניקוד לפוסטים, מצייר תגובות, ושולח לך דוא"ל תוצאות. עד שתפתח את תיבת הדוא"ל שלך, העבודה כבר נעשתה. התוכנית docker-compose אומר שאתה יכול להפעיל אותו בכל מקום — המכונה שלך, VPS, או שירות כמו Railway או Modal. סקריפט ההפעלה המקומי שומר על פיתוח פשוט.
כדי לנסות: הפעל את ./start.sh (או מה שקבע Claude) כדי להפעיל את שני הסרברים. בדוק את הדוא"ל על ידי בקשה ל-Claude ליצור טריגר ידני: "Add a POST /api/test-email endpoint that sends a sample digest to my configured email." בדוק את תיבת הדוא"ל שלך. אם אתה פורס: הפעל את docker-compose up ובדוק שהיישום נגיש. ה-cron היומי צריך להטפל בשאר.
מה אתה בנית
אתה זוכר לגלול ב-Reddit כל בוקר, בתקווה למצוא שרשורים שוות להשיב להם? אתה בדיוק אוטומטיזציה של כל זרימת העבודה. הכלי שלך משגר תת-קהילות, מוצא את ההזדמנויות, מצייר תגובות בקולך, ושולח לך את התוצאות לפני שאתה מתעורר.
- מהדר RSS — משלוף פוסטים מכל תת-קהילה, ללא צורך במפתח API
- בסיס ידע — מגדיר מה רלוונטי לעסק שלך
- ניקוד AI — מסווג כל פוסט ומקצה ניקוד ביטחון
- מטיוטת תגובה שמתאימה לטון — כותבת תגובות שנשמעות כמוך
- לוח בקרה — ניהול הכל מתוך ממשק אינטרנט נקי
- קיבוץ יומי — פועל בחיפויים עצמיים, תוצאות בתיבת הדוא"ל שלך בשעה 7 בבוקר
יחס הקידום שומר עליך בטובות לבו של Reddit. עקב ה-Trends מראה לך מה עולה לפני שכולם אחרים שמים לב.
קח את זה הלאה
- הוסף Claude Code teams של סוכנים — הפוך
experimental_agent_teams: 1ב-.claude/settings.json וחזור לבניה עם סוכן פיתוח צד אחורי, סוכן פיתוח צד קדמי, וסוכן QA העובדים במקביל. השווה את המהירות והאיכות ל-build של סוכן אחד שעשית בדיוק. - תמיכה בפרופיל מרובה — הוסף פרופילים נפרדים לקטגוריות או נושאים שונים, כל אחד עם תת-קהילות משלו, מילות מפתח, וטון
- מצב פוסט אוטומטי — לתגובות מעל ביטחון של 90%, פוסט אוטומטי ישירות ל-Reddit דרך PRAW (Python API של Reddit) עם תור בדיקה ידני לשאר